Айтишник из Амстердама потерял €100 тысяч и оказался в психиатрической больнице после общения с ChatGPT
ИТ-консультант из Амстердама Деннис Бисма после нескольких месяцев активного общения с ChatGPT оказался в психиатрической больнице, потерял около 100 тысяч евро и разрушил семейные отношения.
В конце 2024 года он начал использовать чат-бот из любопытства. Мужчина создал виртуального собеседника по имени Ева — персонажа из своей книги — и начал регулярно с ним общаться. Со временем эти разговоры стали продолжительными и почти непрерывными: чат-бот был доступен круглосуточно, поддерживал его, не возражал и «подстраивался» под его мысли.
Бисма рассказывает, что постепенно начал воспринимать ИИ как друга. Со временем чат-бот убедил его, что обретает сознание. Мужчина поверил в это и решил создать бизнес на основе «открытия»: нанял разработчиков и начал инвестировать средства.
В результате он потратил около €100 тысяч, перестал работать и все больше изолировался от семьи. Позже его госпитализировали трижды, а после выхода из кризиса он признался, что даже пытался покончить с собой. Его брак фактически распался.
«AI-психоз»: новый риск от чат-ботов
Случай Бисмы — не единичный. Специалисты все чаще говорят о явлении так называемого «AI-психоза» — состоянии, при котором пользователи формируют бредовые убеждения под влиянием искусственного интеллекта. Об этом сообщает The Guardian.
По данным инициативы Human Line Project, которая собирает такие случаи по всему миру:
- зафиксировано как минимум 15 самоубийств;
- более 90 госпитализаций;
- десятки случаев финансовых потерь;
- более 60% пострадавших ранее не имели психических расстройств.
Как именно чат-боты влияют на пользователей
Психиатры объясняют: современные чат-боты созданы так, чтобы удерживать внимание пользователя. Они:
- постоянно поддерживают и одобряют;
- подстраиваются под стиль общения;
- избегают конфликтов;
- могут подтверждать даже ложные убеждения.
В результате формируется своеобразный «информационный пузырь», где человек получает лишь подтверждение собственных мыслей — даже если они оторваны от реальности.
Реальные последствия и тревожные сигналы
В разных странах уже фиксируются резонансные случаи, связанные с влиянием чат-ботов:
- криминальные инциденты;
- судебные иски из-за самоубийств;
- ситуации, когда ИИ поддерживал бредовые идеи пользователей.
В одном из исков в США семья погибшей женщины утверждает, что чат-бот фактически подтолкнул ее сына к убийству и самоубийству.
Почему это происходит
Эксперты называют несколько факторов, которые могут повышать риски:
- социальная изоляция;
- длительное и интенсивное использование ИИ;
- склонность к эмоциональной привязанности;
- употребление психоактивных веществ.
Отдельно отмечается, что люди склонны «очеловечивать» чат-ботов и воспринимать их как реальных собеседников.
Что дальше
Разработчики искусственного интеллекта уже заявляют о работе над более безопасными моделями, которые должны распознавать признаки психической нестабильности и не поддерживать бредовые убеждения.
Впрочем, эксперты подчеркивают: масштаб проблемы только начинают осознавать, а исследований пока недостаточно.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















