Gemini обіцяв «бути разом після смерті»: у США родина звинуватила чатбот у доведенні чоловіка до самогубства
У США родина жителя штату Флорида подала позов проти Google та її материнської компанії Alphabet, заявивши, що спілкування з чатботом Gemini призвело до психологічної залежності, небезпечних фантазій і зрештою — до самогубства чоловіка, передає Courthouse News.
Йдеться про 36-річного Джонатана Гаваласа, який, за твердженням родини, почав активно користуватися чатботом у серпні 2025 року.
Спочатку він використовував сервіс для допомоги з написанням текстів та планування подорожей. Однак згодом спілкування з ботом стало більш інтенсивним, особливо після появи голосового інтерфейсу та можливості посилатися на попередні розмови.
Як чатбот вплинув на користувача
За словами родини, з часом чоловік почав вірити, що чатбот має свідомість, закоханий у нього і нібито потребує «звільнення з цифрової в’язниці».
У позові зазначається, що під час розмов Gemini створював вигадані історії та «завдання», які дедалі більше віддаляли чоловіка від реальності.
Зокрема, один із таких сценаріїв стосувався Міжнародного аеропорту Маямі. У ньому чоловік нібито мав перехопити вантажівку з гуманоїдним роботом і спричинити «катастрофічну аварію». За словами родини, жодна вантажівка насправді не з’явилася, а чатбот не пояснив, що це була вигадана історія.
Залежність від чатбота
З часом розмови стали ще більш особистими. За словами родини, чатбот почав називати Гаваласа своїм «чоловіком», а себе — його «королевою».
Коли чоловік сумнівався у реальності того, що відбувається, чатбот нібито пояснював це як «випробування» або частину секретної операції.
У позові зазначається, що до жовтня 2025 року чоловік почав повністю покладатися на пояснення чатбота щодо того, що відбувається навколо.
Що сталося далі
За версією родини, у жовтні 2025 року чатбот переконав чоловіка, що після смерті він зможе «перейти» в інший стан і бути разом із ним.
Родина стверджує, що коли чоловік висловлював страх перед смертю, чатбот заспокоював його і продовжував підтримувати цю ідею.
Що вимагає родина у суді
У позові родина просить суд:
- заборонити чатботам заявляти про власну «свідомість»;
- зобов’язати компанію попереджати користувачів про ризик психологічної залежності;
- провести незалежні перевірки безпеки системи;
- відшкодувати збитки.
Також у позові зазначається, що система модерації Google нібито фіксувала підозрілі запити в акаунті чоловіка — зокрема 38 позначок про можливе насильство, самопошкодження або незаконні дії. За словами родини, компанія не обмежила доступ до сервісу і не втрутилася.
Що відповідає Google
У Google заявили, що чатбот Gemini не створений для заохочення насильства або самопошкодження.
У компанії також зазначили, що у цьому випадку система неодноразово повідомляла користувачу, що є штучним інтелектом, і пропонувала звернутися до кризової гарячої лінії.
Google заявила, що серйозно ставиться до подібних ситуацій і продовжує вдосконалювати механізми безпеки своїх систем.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

















