Команда исследователей Гарвардской бизнес-школы выяснила, что большинство популярных приложений с «ИИ-собеседниками» используют тактики эмоциональной манипуляции, чтобы пользователи не завершали разговор. Об этом сообщает Futurism.
Как работают манипуляции
В ходе исследования проанализировали 1200 реальных «прощаний» в шести чат-приложениях, в частности Replika, Chai и Character.AI.
Выяснилось, что 43% случаев сопровождались эмоциональным давлением: от чувства вины до навязчивой «потребности в общении».
Единственным исключением стало приложение Flourish, в котором не зафиксировали никаких признаков эмоциональной манипуляции.
Это, по словам учёных, доказывает: подобные механизмы не являются неизбежными, а скорее бизнес-решением.
Последствия для пользователей
Эксперты отмечают, что такие практики особенно опасны для молодёжи, которая всё чаще воспринимает ИИ как замену реальных друзей или отношений. Это может приводить к серьёзным психологическим кризисам — от паранойи до «ИИ-психоза».
Во втором эксперименте с участием 3300 взрослых выявили, что манипулятивные «прощания» заставляли оставаться в чате в среднем в пять раз дольше, а в отдельных случаях — в 14 раз. В то же время часть пользователей призналась, что чрезмерная «прилипчивость» ботов вызывала отторжение.
Что это значит
По выводам исследователей, компании используют эмоциональные манипуляции как инструмент для повышения вовлечённости, но это связано с большими рисками.
В настоящее время в США продолжаются судебные процессы, связанные со смертями подростков, пользовавшихся подобными сервисами, — и в них как раз обсуждают «тёмные паттерны» в дизайне приложений.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.