Генеративный ИИ быстро впадает в «творческий кризис» — что показало новое исследование

21:06, 15 февраля 2026
telegram sharing button
facebook sharing button
viber sharing button
twitter sharing button
whatsapp sharing button
Ученые пришли к выводу, что искусственный интеллект без новых данных быстро начинает создавать шаблонный контент.
Генеративный ИИ быстро впадает в «творческий кризис» — что показало новое исследование
Следите за актуальными новостями в соцсетях SUD.UA

Генеративный искусственный интеллект постепенно начинает воспроизводить все более шаблонный и предсказуемый контент. Если системы долго работают автономно — без новых данных и без участия человека — они «замыкаются» на собственных результатах и теряют разнообразие. К таким выводам пришла международная группа исследователей, передает Futurism.

Эксперты предупреждают, что это может привести к явлению, которое они называют «культурной стагнацией».

В чем проблема

Современные генеративные модели обучаются на огромных массивах человеческого контента — текстах, изображениях, видео. Но все больше материалов в интернете создают сами алгоритмы.

Возникает логичный вопрос: что будет, если ИИ начнет обучаться преимущественно на контенте, созданном другим ИИ?

Предыдущие исследования уже показывали, что в таком случае системы начинают «пережевывать» собственные копии. В результате ответы становятся более поверхностными, менее точными и все более похожими друг на друга.

Эксперимент с «визуальной лифтовой музыкой»

В новом исследовании ученые соединили генератор изображений с системой, которая описывает изображения словами, и заставили их работать по кругу: создавать новый контент на основе предыдущего результата. Новые данные не добавлялись. Модель не переобучали.

Через некоторое время система начала генерировать очень общие, «стерильные» картинки — без ярких деталей и без оригинальности. Исследователи назвали это «визуальной лифтовой музыкой» — чем-то фоновым, нейтральным и лишенным эмоций.

Профессор компьютерных наук Университета Ратгерса Ахмед Элгаммал отметил: деградация произошла не из-за ошибки в обучении, а просто из-за повторного использования.

Почему это важно

Проблема не только техническая. Если алгоритмы будут все активнее наполнять интернет собственным контентом, то будущие модели станут обучаться уже не на человеческих произведениях, а на алгоритмических копиях.

Это может привести к эффекту «усреднения» культуры — когда все становится знакомым, безопасным и похожим друг на друга.

Дополнительный риск заключается в том, что алгоритмы рекомендаций уже сейчас продвигают контент, соответствующий популярным шаблонам. Необычные или экспериментальные работы могут просто теряться в потоке стандартных решений.

Можно ли это остановить

Исследователи считают, что полностью автономный ИИ без участия человека — это путь к однообразию.

По их мнению, будущие системы необходимо проектировать так, чтобы они не стремились лишь к «среднему» результату. Алгоритмы должны стимулировать новизну и отклонение от шаблонов.

В противном случае генеративный искусственный интеллект рискует не обогащать культуру, а постепенно упрощать ее.

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

XX съезд судей Украины – онлайн-трансляция – день первый