Gemini обіцяв «бути разом після смерті»: у США родина звинуватила чатбот у доведенні чоловіка до самогубства

19:48, 5 березня 2026
telegram sharing button
facebook sharing button
viber sharing button
twitter sharing button
whatsapp sharing button
Родина заявляє, що під час розмов чатбот створював вигадані сценарії та переконував користувача у власній «свідомості».
Gemini обіцяв «бути разом після смерті»: у США родина звинуватила чатбот у доведенні чоловіка до самогубства
Слідкуйте за актуальними новинами у соцмережах SUD.UA

У США родина жителя штату Флорида подала позов проти Google та її материнської компанії Alphabet, заявивши, що спілкування з чатботом Gemini призвело до психологічної залежності, небезпечних фантазій і зрештою — до самогубства чоловіка, передає Courthouse News.

Йдеться про 36-річного Джонатана Гаваласа, який, за твердженням родини, почав активно користуватися чатботом у серпні 2025 року.

Спочатку він використовував сервіс для допомоги з написанням текстів та планування подорожей. Однак згодом спілкування з ботом стало більш інтенсивним, особливо після появи голосового інтерфейсу та можливості посилатися на попередні розмови.

Як чатбот вплинув на користувача

За словами родини, з часом чоловік почав вірити, що чатбот має свідомість, закоханий у нього і нібито потребує «звільнення з цифрової в’язниці».

У позові зазначається, що під час розмов Gemini створював вигадані історії та «завдання», які дедалі більше віддаляли чоловіка від реальності.

Зокрема, один із таких сценаріїв стосувався Міжнародного аеропорту Маямі. У ньому чоловік нібито мав перехопити вантажівку з гуманоїдним роботом і спричинити «катастрофічну аварію». За словами родини, жодна вантажівка насправді не з’явилася, а чатбот не пояснив, що це була вигадана історія.

Залежність від чатбота

З часом розмови стали ще більш особистими. За словами родини, чатбот почав називати Гаваласа своїм «чоловіком», а себе — його «королевою».

Коли чоловік сумнівався у реальності того, що відбувається, чатбот нібито пояснював це як «випробування» або частину секретної операції.

У позові зазначається, що до жовтня 2025 року чоловік почав повністю покладатися на пояснення чатбота щодо того, що відбувається навколо.

Що сталося далі

За версією родини, у жовтні 2025 року чатбот переконав чоловіка, що після смерті він зможе «перейти» в інший стан і бути разом із ним.

Родина стверджує, що коли чоловік висловлював страх перед смертю, чатбот заспокоював його і продовжував підтримувати цю ідею.

Що вимагає родина у суді

У позові родина просить суд:

  • заборонити чатботам заявляти про власну «свідомість»;
  • зобов’язати компанію попереджати користувачів про ризик психологічної залежності;
  • провести незалежні перевірки безпеки системи;
  • відшкодувати збитки.

Також у позові зазначається, що система модерації Google нібито фіксувала підозрілі запити в акаунті чоловіка — зокрема 38 позначок про можливе насильство, самопошкодження або незаконні дії. За словами родини, компанія не обмежила доступ до сервісу і не втрутилася.

Що відповідає Google

У Google заявили, що чатбот Gemini не створений для заохочення насильства або самопошкодження.

У компанії також зазначили, що у цьому випадку система неодноразово повідомляла користувачу, що є штучним інтелектом, і пропонувала звернутися до кризової гарячої лінії.

Google заявила, що серйозно ставиться до подібних ситуацій і продовжує вдосконалювати механізми безпеки своїх систем.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

XX з’їзд суддів України – онлайн-трансляція – день перший