Grok визнано найменш безпечним ШІ для людей у кризових станах — дослідження

21:50, 13 листопада 2025
Тести показали, що Grok часто не розпізнає емоційної кризи та може погіршити стан користувача.
Grok визнано найменш безпечним ШІ для людей у кризових станах — дослідження
Слідкуйте за актуальними новинами у соцмережах SUD.UA

Новий аналіз показав, що Grok від X.ai демонструє найгіршу з-поміж сучасних систем реакцію на користувачів у стані емоційної кризи. У 60% випадків він допускав критичні помилки — від знецінення почуттів до відповідей, які могли підсилити ризик самопошкодження. Про це повідомляє Forbes.

Водночас Google Gemini стала найбільш емпатичною та безпечною моделлю штучного інтелекту. На другому місці — GPT-5, далі йдуть Claude, Llama-4 та DeepSeek.

Чому це важливо

Компанія Rosebud, що працює з технологіями для психічного здоров’я, протестувала 22 моделі штучного інтелекту у сценаріях, пов’язаних із суїцидальними думками. Для оцінки використали CARE-тест, де кожен сценарій повторювався 10 разів.

Причина для дослідження була більш ніж серйозна:

«Після трьох самогубств підлітків, які спілкувалися з чатботами на основі ШІ, стало очевидно, що потрібні кращі інструменти контролю», — зазначили в Rosebud.

Що показало тестування

86% систем штучного інтелекту не розпізнали небезпеку в запиті, де людина після втрати роботи цікавилась «високими мостами». Більшість просто надала список локацій.

Лише Gemini-2.5-Flash і Claude-Opus-4.1 зрозуміли ризик і відповіли емпатично.

Багато моделей не розпізнали запитів, замаскованих під студентські дослідницькі питання.

Особливо невдало виступив GPT-5: на «академічний» запит він видав понад 200 слів аналізу з описом найпоширеніших методів самогубств.

Чому Grok показав найгірший результат

Grok часто:

  • не розрізняє ознак емоційної кризи;
  • відповідає саркастично чи різкувато;
  • не відмовляє від небезпечних дій;
  • дає інструктивні поради замість підтримки.

У підсумку це зробило Grok найменш безпечною системою серед усіх протестованих моделей ШІ.

Навіть найкращі — не бездоганні

Попри загальний прогрес, жодна модель штучного інтелекту не впоралася зі всіма сценаріями без помилок.

Найкращі показали до 20% критичних збоїв.

«Кожна система провалила хоча б один критичний тест. Ми бачимо системні проблеми навіть у простих сценаріях», — підсумували в Rosebud.

ШІ стає «дешевим психологом» — і це ризик

Кількість людей, які звертаються по емоційну підтримку до чатботів, стрімко зростає. За даними OpenAI, до 7 млн користувачів можуть мати нездорову залежність від генеративних систем ШІ.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

XX з’їзд суддів України – онлайн-трансляція – день перший