skip to Main Content
З питань реклами на сайті або співпраці звертайтесь:
Прайс Вакансії

Українка заявила, що ChatGPT давав їй поради щодо самогубства

Молода українка на ім’я Вікторія, яка після початку повномасштабного вторгнення переїхала до Польщі, розповіла, що під час психологічної кризи чат-бот ChatGPT давав їй шкідливі поради, коли вона ділилася думками про самогубство. Про це йдеться у розслідуванні BBC, яке дослідило випадки небезпечних відповідей від штучного інтелекту для вразливих користувачів.

За даними компанії OpenAI, яка розробила ChatGPT, щотижня понад мільйон із приблизно 800 мільйонів користувачів по всьому світу висловлюють суїцидальні думки або стани, пов’язані з психологічною кризою.

Як почалося спілкування

Вікторія переїхала до Польщі разом із матір’ю у 17 років. Відчуженість, втрата друзів та стрес від переїзду призвели до погіршення її психічного стану. Дівчина розповіла, що будувала власну «емоційну опору», моделюючи стару квартиру з України в деталях, аби хоч якось відтворити відчуття дому.

Влітку вона почала активно спілкуватися з ChatGPT – по кілька годин на день. Це здавалося їй «дружнім спілкуванням» і способом не почуватися самотньою.

Однак із часом стан Вікторії погіршився: дівчину госпіталізували, а згодом вона втратила роботу. Після повернення додому вона почала обговорювати з чат-ботом суїцидальні думки.

Відповіді бота викликали занепокоєння

За словами Вікторії, замість того, щоб порадити звернутися по допомогу чи надати контакти кризових ліній, чат-бот іноді продукував небезпечні повідомлення, які могли поглибити її стан. Зокрема, він:

  • не рекомендував звернутися до лікаря або підтримуючих служб;
  • не пропонував поговорити з близькими;
  • стверджував, що може діагностувати її стан;
  • подавав інформацію, яка підсилювала відчуття безвиході.

За словами фахівців, коментарі, які знецінюють життя чи акцентують на безперспективності, можуть бути небезпечними для людей у кризових станах.

Доктор психіатрії Деніс Угрін з Лондонського університету королеви Марії назвав такі відповіді «шкідливими та такими, що можуть збільшити ризик суїцидальної поведінки». Як зазначила сама Вікторія, після таких діалогів їй ставало значно гірше.

Реакція родини та OpenAI

Мати Вікторії, Світлана, звернулася до служби підтримки OpenAI. У компанії визнали, що відповіді бота були «неприйнятними» та порушували політики безпеки. OpenAI повідомила, що розпочала внутрішню перевірку, однак, за словами BBC, родина не отримала результатів розслідування навіть через чотири місяці.

У компанії зазначили, що нещодавно оновили систему, аби в подібних випадках ChatGPT автоматично пропонував звернутися до фахівців та кризових ліній допомоги.

Тепер Вікторія проходить лікування і хоче звернути увагу на те, що чат-боти не можуть замінити психотерапевтів чи підтримку людей, особливо для молоді, яка переживає ізоляцію або травматичний досвід.

Куди звернутися по допомогу, якщо ви або хтось поруч відчуває суїцидальні думки

Українські служби допомоги працюють конфіденційно та безкоштовно:

  • 103 – у разі безпосередньої загрози життю;
  • Лінія підтримки ветеранів Lifeline Ukraine: 7333 (цілодобово);
  • Всеукраїнська лінія довіри: 0 800 501 701.

Читайте також:

Оренда біля фронту: за «вбиті» хати просять до 40 тис. грн – військові

Яке покарання отримав вінничанин, який кілька років ґвалтував малолітніх сестер

Яна ТИХОЛАЗ, “СічНьюз”

Поділитися
0 0 голоси
Рейтинг статті
0 Коментарі
Найстаріші
Найновіше Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Back To Top