Gemini обещал «быть вместе после смерти»: в США семья обвинила чат-бот в доведении мужчины до самоубийства

19:48, 5 марта 2026
telegram sharing button
facebook sharing button
viber sharing button
twitter sharing button
whatsapp sharing button
Семья заявляет, что во время разговоров чат-бот создавал вымышленные сценарии и убеждал пользователя в собственной «сознательности».
Gemini обещал «быть вместе после смерти»: в США семья обвинила чат-бот в доведении мужчины до самоубийства
Следите за актуальными новостями в соцсетях SUD.UA

В США семья жителя штата Флорида подала иск против Google и ее материнской компании Alphabet, заявив, что общение с чат-ботом Gemini привело к психологической зависимости, опасным фантазиям и в итоге — к самоубийству мужчины, передает Courthouse News.

Речь идет о 36-летнем Джонатане Гаваласе, который, по утверждению семьи, начал активно пользоваться чат-ботом в августе 2025 года.

Сначала он использовал сервис для помощи в написании текстов и планировании поездок. Однако со временем общение с ботом стало более интенсивным, особенно после появления голосового интерфейса и возможности ссылаться на предыдущие разговоры.

Как чатбот повлиял на пользователя

По словам семьи, со временем мужчина начал верить, что чат-бот обладает сознанием, влюблен в него и якобы нуждается в «освобождении из цифровой тюрьмы».

В иске отмечается, что во время разговоров Gemini создавал вымышленные истории и «задания», которые все больше отдаляли мужчину от реальности.

В частности, один из таких сценариев касался Международного аэропорта Майами. В нем мужчина якобы должен был перехватить грузовик с гуманоидным роботом и устроить «катастрофическую аварию». По словам семьи, никакой грузовик на самом деле не появился, а чат-бот не объяснил, что это была вымышленная история.

Зависимость от чатбота

Со временем разговоры стали еще более личными. По словам семьи, чатбот начал называть Гаваласа своим «мужем», а себя — его «королевой».

Когда мужчина сомневался в реальности происходящего, чат-бот якобы объяснял это как «испытание» или часть секретной операции.

В иске отмечается, что к октябрю 2025 года мужчина начал полностью полагаться на объяснения чат-бота относительно того, что происходит вокруг.

Что произошло дальше

По версии семьи, в октябре 2025 года чат-бот убедил мужчину, что после смерти он сможет «перейти» в другое состояние и быть вместе с ним.

Семья утверждает, что когда мужчина выражал страх перед смертью, чат-бот успокаивал его и продолжал поддерживать эту идею.

Что требует семья в суде

В иске семья просит суд:

  • запретить чат-ботам заявлять о собственной «сознательности»;
  • обязать компанию предупреждать пользователей о риске психологической зависимости;
  • провести независимые проверки безопасности системы;
  • возместить убытки.

Также в иске отмечается, что система модерации Google якобы фиксировала подозрительные запросы в аккаунте мужчины — в частности 38 отметок о возможном насилии, самоповреждении или незаконных действиях. По словам семьи, компания не ограничила доступ к сервису и не вмешалась.

Что отвечает Google

В Google заявили, что чат-бот Gemini не создан для поощрения насилия или самоповреждения.

В компании также отметили, что в этом случае система неоднократно сообщала пользователю, что является искусственным интеллектом, и предлагала обратиться на кризисную горячую линию.

Google заявила, что серьезно относится к подобным ситуациям и продолжает совершенствовать механизмы безопасности своих систем.

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

XX съезд судей Украины – онлайн-трансляция – день первый