Вчені створили штучний інтелект, який розуміє сарказм: його навчали на серіалах «Друзі» та «Теорія великого вибуху»

18:38, 17 травня 2024
telegram sharing button
facebook sharing button
viber sharing button
twitter sharing button
whatsapp sharing button
Як правило, алгоритмам важко розуміти сарказм, оскільки вони розпізнають лише текстові скрипти.
Вчені створили штучний інтелект, який розуміє сарказм: його навчали на серіалах «Друзі» та «Теорія великого вибуху»
Слідкуйте за актуальними новинами у соцмережах SUD.UA

Нідерландські вчені створили штучний інтелект, який може розпізнати сарказм. Про це повідомляє The Guardian.

Розпізнавати сарказм – складне завдання навіть для людей, адже він ґрунтується на контексті, тоні голосу та невербальних сигналах. Алгоритмам це дається ще складніше, оскільки вони розпізнають лише текстові скрипти.

«Ми змушені говорити з нашими пристроями дуже буквально, ніби розмовляємо з роботами, але цей формальний тон розмови не має бути обов’язковим», – каже Метт Колер з лабораторії мовних технологій Університету Гронінгена, де розробили технологію.

Він стверджує, що ця технологія може вплинути на те, як люди взаємодіють з машинами.

Зазначається, що нейромережу навчали на текстах, аудіо та відео із популярних ситкомів «Друзі» та «Теорія великого вибуху». Після навчання штучний інтелект зміг виявляти сарказм у немаркованих уривках із ситкомів майже в 75% випадків.

Розробляючи ШІ, вчені виявили, що алгоритму важливо мати кілька підказок, щоб відрізнити саркастичні висловлювання від щирих.

Дослідники планують продовжувати вдосконалювати свою технологію, додаючи візуальні підказки, як-от вирази обличчя та мову тіла.

Окрім покращення спілкування зі штучним інтелектом, технологія може мати й інші корисні застосування. Наприклад, її можна використовувати для виявлення негативного тону в розмові, розпізнавання образ і мови ненависті, аналізу онлайн-відгуків та створення віртуальних помічників.

Однак поки не зрозуміло, чи зможе штучний інтелект коли-небудь по-справжньому зрозуміти сарказм. Причиною є те, що такий підтекст часто ґрунтується на особистому досвіді, культурних особливостях та тонкощах людських стосунків.

«Чи досягнемо ми 100% точності? Цього навіть люди не можуть досягти», – зазначив аспірант лабораторії Сіюань Гао.

Дослідник Метт Колер замислюється над тим, що станеться, якщо машини почнуть використовувати нові навички, щоб відповідати людям сарказмом.

«Якщо я запитаю у нейромережі: «У вас є час на моє питання?» і почую у відповідь: «Так, звісно», я можу так і не зрозуміти, чи є у штучного інтелекту час, чи ні?» – каже дослідник.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

XX з’їзд суддів України – онлайн-трансляція – день перший