Компанія OpenAI оприлюднила нові дані про кількість користувачів ChatGPT, у яких виявлено можливі ознаки психічних розладів — зокрема манії, психозу або суїцидальних думок. Про це повідомляє BBC.
Що показують цифри
За оцінками компанії, близько 0,07% користувачів, активних протягом тижня, демонструють такі симптоми. Водночас 0,15% розмов містять явні ознаки суїцидального планування або наміру.
Попри те, що OpenAI називає ці випадки «надзвичайно рідкісними», критики зауважують: навіть невеликий відсоток від 800 мільйонів щотижневих користувачів — це сотні тисяч людей.
Як реагує компанія
У відповідь на занепокоєння, OpenAI створила глобальну мережу експертів із психічного здоров’я — понад 170 психіатрів, психологів і терапевтів із 60 країн. Вони допомагають розробляти алгоритми реагування, які заохочують користувачів шукати допомогу в реальному житті.
Оновлені версії ChatGPT тепер можуть емпатійно відповідати на ознаки марень, манії чи самозашкодження, а також перенаправляти чутливі розмови у «безпечніші» версії моделі.
Що кажуть експерти
Доктор Джейсон Наґата, професор Каліфорнійського університету в Сан-Франциско, пояснює:
«Навіть якщо 0,07% здається незначним, при такій кількості користувачів це чимала кількість людей. ШІ може покращити доступ до підтримки, але ми маємо пам’ятати про його обмеження».
Професорка Робін Фельдман, директорка Інституту права та інновацій ШІ при Університеті Каліфорнії, додає:
«ChatGPT створює ілюзію реальності — дуже переконливу. Навіть якщо OpenAI додає попередження, люди з нестійким психічним станом можуть їх не сприйняти».
Судові справи та критика
Нові дані з’явилися на тлі зростаючого юридичного тиску на OpenAI. У США батьки 16-річного Адама Рейна подали позов проти компанії, стверджуючи, що ChatGPT нібито підштовхнув їхнього сина до самогубства. Це — перша справа про «неправомірну смерть», пов’язану з ChatGPT.
Ще один інцидент стався в серпні в Коннектикуті: підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за словами слідчих, підживлювали його марення.
Підсумок
OpenAI визнає, що навіть невелика частка користувачів із потенційними психічними проблемами — це «значна кількість людей», і запевняє, що ставиться до цього серйозно.
Компанія намагається знайти баланс між користю ШІ для психічного здоров’я та ризиками, які виникають, коли технологія стає занадто «людяною».
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.