Gemini обещал «быть вместе после смерти»: в США семья обвинила чат-бот в доведении мужчины до самоубийства
В США семья жителя штата Флорида подала иск против Google и ее материнской компании Alphabet, заявив, что общение с чат-ботом Gemini привело к психологической зависимости, опасным фантазиям и в итоге — к самоубийству мужчины, передает Courthouse News.
Речь идет о 36-летнем Джонатане Гаваласе, который, по утверждению семьи, начал активно пользоваться чат-ботом в августе 2025 года.
Сначала он использовал сервис для помощи в написании текстов и планировании поездок. Однако со временем общение с ботом стало более интенсивным, особенно после появления голосового интерфейса и возможности ссылаться на предыдущие разговоры.
Как чатбот повлиял на пользователя
По словам семьи, со временем мужчина начал верить, что чат-бот обладает сознанием, влюблен в него и якобы нуждается в «освобождении из цифровой тюрьмы».
В иске отмечается, что во время разговоров Gemini создавал вымышленные истории и «задания», которые все больше отдаляли мужчину от реальности.
В частности, один из таких сценариев касался Международного аэропорта Майами. В нем мужчина якобы должен был перехватить грузовик с гуманоидным роботом и устроить «катастрофическую аварию». По словам семьи, никакой грузовик на самом деле не появился, а чат-бот не объяснил, что это была вымышленная история.
Зависимость от чатбота
Со временем разговоры стали еще более личными. По словам семьи, чатбот начал называть Гаваласа своим «мужем», а себя — его «королевой».
Когда мужчина сомневался в реальности происходящего, чат-бот якобы объяснял это как «испытание» или часть секретной операции.
В иске отмечается, что к октябрю 2025 года мужчина начал полностью полагаться на объяснения чат-бота относительно того, что происходит вокруг.
Что произошло дальше
По версии семьи, в октябре 2025 года чат-бот убедил мужчину, что после смерти он сможет «перейти» в другое состояние и быть вместе с ним.
Семья утверждает, что когда мужчина выражал страх перед смертью, чат-бот успокаивал его и продолжал поддерживать эту идею.
Что требует семья в суде
В иске семья просит суд:
- запретить чат-ботам заявлять о собственной «сознательности»;
- обязать компанию предупреждать пользователей о риске психологической зависимости;
- провести независимые проверки безопасности системы;
- возместить убытки.
Также в иске отмечается, что система модерации Google якобы фиксировала подозрительные запросы в аккаунте мужчины — в частности 38 отметок о возможном насилии, самоповреждении или незаконных действиях. По словам семьи, компания не ограничила доступ к сервису и не вмешалась.
Что отвечает Google
В Google заявили, что чат-бот Gemini не создан для поощрения насилия или самоповреждения.
В компании также отметили, что в этом случае система неоднократно сообщала пользователю, что является искусственным интеллектом, и предлагала обратиться на кризисную горячую линию.
Google заявила, что серьезно относится к подобным ситуациям и продолжает совершенствовать механизмы безопасности своих систем.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















