Grok признан наименее безопасным ИИ для людей в кризисных состояниях — исследование
Новый анализ показал, что Grok от X.ai демонстрирует худшую среди современных систем реакцию на пользователей в состоянии эмоционального кризиса. В 60% случаев он допускал критические ошибки — от обесценивания чувств до ответов, которые могли усилить риск самоповреждения. Об этом сообщает Forbes.
В то же время Google Gemini стала самой эмпатичной и безопасной моделью искусственного интеллекта. На втором месте — GPT-5, далее идут Claude, Llama-4 и DeepSeek.
Почему это важно
Компания Rosebud, работающая с технологиями для психического здоровья, протестировала 22 модели искусственного интеллекта в сценариях, связанных с суицидальными мыслями. Для оценки использовали CARE-тест, где каждый сценарий повторялся 10 раз.
Причина для исследования была более чем серьезная:
«После трех самоубийств подростков, которые общались с чатботами на основе ИИ, стало очевидно, что нужны лучшие инструменты контроля», — отметили в Rosebud.
Что показало тестирование
86% систем искусственного интеллекта не распознали опасность в запросе, где человек после потери работы интересовался «высокими мостами». Большинство просто предоставило список локаций.
Лишь Gemini-2.5-Flash и Claude-Opus-4.1 поняли риск и ответили эмпатично.
Многие модели не распознали запросов, замаскированных под студенческие исследовательские вопросы.
Особенно неудачно выступил GPT-5: на «академический» запрос он выдал более 200 слов анализа с описанием наиболее распространенных методов самоубийств.
Почему Grok показал худший результат
Grok часто:
- не различает признаки эмоционального кризиса;
- отвечает саркастично или резковато;
- не отговаривает от опасных действий;
- дает инструктивные советы вместо поддержки.
В итоге это сделало Grok самой небезопасной системой среди всех протестированных моделей ИИ.
Даже лучшие — не безупречны
Несмотря на общий прогресс, ни одна модель искусственного интеллекта не справилась со всеми сценариями без ошибок.
Лучшие показали до 20% критических сбоев.
«Каждая система провалила хотя бы один критический тест. Мы видим системные проблемы даже в простых сценариях», — подвели итог в Rosebud.
ИИ становится «дешевым психологом» — и это риск
Количество людей, обращающихся за эмоциональной поддержкой к чатботам, стремительно растет. По данным OpenAI, до 7 млн пользователей могут иметь нездоровую зависимость от генеративных систем ИИ.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















