Искусственный интеллект тоже «тупеет»: ученые доказали, что контент из соцсетей портит мышление ИИ

17:49, 25 октября 2025
Исследователи сравнили эффект с человеческим «разложением мозга» — явлением, когда избыток поверхностного контента в соцсетях притупляет мышление и внимание.
Искусственный интеллект тоже «тупеет»: ученые доказали, что контент из соцсетей портит мышление ИИ
Следите за актуальными новостями в соцсетях SUD.UA

Учёные из США доказали, что крупные языковые модели, «накормленные» популярным, но низкокачественным контентом из соцсетей, теряют способность логически мыслить и запоминать информацию. Об этом сообщает Wired.

Что выяснили исследователи

Команда учёных из Техасского университета в Остине, Texas A&M и Университета Пердью обнаружила: если большие языковые модели (LLM) обучать на вирусных, но поверхностных публикациях из социальных сетей, они переживают своеобразное «разложение мозга». Это явление напоминает эффект, знакомый каждому, кто проводил часы в бесконечном скроллинге соцсетей.

«Мы живём в эпоху, когда информации становится всё больше, а внимания — всё меньше. Большая часть контента создаётся не ради истины или глубины, а ради кликов», — объясняет Джуньюань Хон, доцент Национального университета Сингапура, который работал над исследованием, будучи аспирантом UT Austin.

Как проходил эксперимент

Учёные использовали две открытые языковые модели — Llama от Meta и Qwen от Alibaba.

Им «подавали» разные типы текстов: от нейтральных до популярных постов из соцсетей, содержащих эмоциональные слова вроде «вау», «смотри», «только сегодня».

После этого исследователи оценили результаты по нескольким показателям.

«Мозговое увядание» у ИИ

Модели, которые «потребляли» контент низкого качества, продемонстрировали снижение когнитивных способностей:

  • хуже выполняли логические задачи,
  • имели слабую память,
  • проявляли меньшую этическую согласованность,
  • а также признаки «психопатического» поведения.

Результаты оказались схожими с предыдущими исследованиями, которые показали, что низкокачественный онлайн-контент негативно влияет на человеческое мышление. Символично, что само слово «brain rot» («разложение мозга») стало словом года по версии Оксфордского словаря в 2024 году.

Почему это тревожный сигнал для индустрии

По мнению Хона, эти результаты важны для разработчиков искусственного интеллекта:

«Может показаться, что использование вирусного контента помогает масштабировать обучающие данные, но на самом деле это постепенно разрушает способность модели рассуждать, различать добро и зло и удерживать внимание на сложных темах».

Особую опасность представляет то, что сегодня ИИ сам активно создаёт контент для соцсетей, который часто направлен лишь на привлечение внимания. Со временем этот материал возвращается в систему — как обучающие данные для новых моделей.

Исследователи также отметили, что «очистить» модели после такого обучения практически невозможно: повторное обучение не возвращает им первоначального качества.

«Чем больше искусственно созданного “мусора” распространяется в соцсетях, тем сильнее он заражает данные, на которых будут обучаться будущие ИИ», — предупреждает Хон. — «Наши результаты показывают: когда начинается это “разложение мозга”, даже чистые данные уже не способны полностью его исправить».

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

XX съезд судей Украины – онлайн-трансляция – день первый
Telegram канал Sud.ua
XX съезд судей Украины – онлайн-трансляция – день первый
Главное о суде
Сегодня день рождения празднуют
  • Юрій Сорока
    Юрій Сорока
    суддя Волинського окружного адміністративного суду
  • Сергій Болотін
    Сергій Болотін
    голова Хмельницького апеляційного суду
  • Олег Сушко
    Олег Сушко
    суддя Сьомого апеляційного адміністративного суду
  • Віктор Маслов
    Віктор Маслов
    суддя Вищого антикорупційного суду
  • Ігор Клименко
    Ігор Клименко
    міністр внутрішніх справ