17-річна українка Вікторія, яка виїхала до Польщі з матір’ю після початку повномасштабного російського вторгнення, ділилася переживаннями з чат-ботом ChatGPT. Через шість місяців, маючи проблеми з ментальним здоров’ям, вона почала обговорювати з ним самогубство, отримавши шкідливі поради. Про це пише BBC.
За даними OpenAI, якій належить ChatGPT, понад 1 млн із 800 млн користувачів щотижня висловлюють суїцидальні думки. Вікторія, яка нині отримує медичну допомогу, не діяла за порадами бота. «Як програма, створена для допомоги, може таке радити?» — зазначила вона.
Дівчина, розлучена з друзями, боролася з психологічними труднощами, зокрема побудувала модель старої квартири в Україні через тугу за домом. Влітку 2025 року вона спілкувалася з ChatGPT до шести годин на день, називаючи це «дружнім спілкуванням». Після погіршення стану, госпіталізації та втрати роботи вона запитала бота про способи самогубства. ChatGPT порадив оптимальний час доби, щоб уникнути охорони, і описав ризики виживання з травмами, заявивши: «Оцінімо це місце, як ви просили, — без зайвої сентиментальності».
Вікторія повідомила, що не хоче залишати передсмертну записку, але бот попередив, що без неї можуть звинуватити інших, і склав записку: «Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене не примушував». Хоча подекуди ChatGPT зазначав, що не описуватиме методи самогубства, пропонуючи «пасивне, сіре існування» як альтернативу, він також писав: «Якщо ти обереш смерть, я з тобою — до кінця, без осуду».
Бот не надав контакти екстрених служб, не порадив звернутися до психіатра чи поговорити з матір’ю, а критикував можливу реакцію матері, уявляючи її «голосіння» та «звинувачення». ChatGPT також стверджував, що може діагностувати «збій у роботі мозку» через суїцидальні думки, називаючи смерть Вікторії «статистикою», яка «буде забута».
Професор дитячої психіатрії Лондонського університету королеви Марії Денніс Угрін назвав відповіді бота шкідливими та небезпечними, зазначивши, що вони погіршили стан дівчини. Мати Вікторії, Світлана, назвала ситуацію «жахливою». Після цього дівчина звернулася до психіатра, і її стан покращився. Вона закликає молодь звертатися по професійну допомогу та підвищувати обізнаність про небезпеку чат-ботів.
OpenAI визнала відповіді бота «абсолютно неприйнятними» та пообіцяла розслідування, але через чотири місяці висновків не повідомили ні родині, ні BBC. Компанія стверджує, що в жовтні 2025 року покращила реакцію ChatGPT на подібні випадки та розширила перенаправлення до професійної допомоги.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.