Генеративный ИИ быстро впадает в «творческий кризис» — что показало новое исследование
Генеративный искусственный интеллект постепенно начинает воспроизводить все более шаблонный и предсказуемый контент. Если системы долго работают автономно — без новых данных и без участия человека — они «замыкаются» на собственных результатах и теряют разнообразие. К таким выводам пришла международная группа исследователей, передает Futurism.
Эксперты предупреждают, что это может привести к явлению, которое они называют «культурной стагнацией».
В чем проблема
Современные генеративные модели обучаются на огромных массивах человеческого контента — текстах, изображениях, видео. Но все больше материалов в интернете создают сами алгоритмы.
Возникает логичный вопрос: что будет, если ИИ начнет обучаться преимущественно на контенте, созданном другим ИИ?
Предыдущие исследования уже показывали, что в таком случае системы начинают «пережевывать» собственные копии. В результате ответы становятся более поверхностными, менее точными и все более похожими друг на друга.
Эксперимент с «визуальной лифтовой музыкой»
В новом исследовании ученые соединили генератор изображений с системой, которая описывает изображения словами, и заставили их работать по кругу: создавать новый контент на основе предыдущего результата. Новые данные не добавлялись. Модель не переобучали.
Через некоторое время система начала генерировать очень общие, «стерильные» картинки — без ярких деталей и без оригинальности. Исследователи назвали это «визуальной лифтовой музыкой» — чем-то фоновым, нейтральным и лишенным эмоций.
Профессор компьютерных наук Университета Ратгерса Ахмед Элгаммал отметил: деградация произошла не из-за ошибки в обучении, а просто из-за повторного использования.
Почему это важно
Проблема не только техническая. Если алгоритмы будут все активнее наполнять интернет собственным контентом, то будущие модели станут обучаться уже не на человеческих произведениях, а на алгоритмических копиях.
Это может привести к эффекту «усреднения» культуры — когда все становится знакомым, безопасным и похожим друг на друга.
Дополнительный риск заключается в том, что алгоритмы рекомендаций уже сейчас продвигают контент, соответствующий популярным шаблонам. Необычные или экспериментальные работы могут просто теряться в потоке стандартных решений.
Можно ли это остановить
Исследователи считают, что полностью автономный ИИ без участия человека — это путь к однообразию.
По их мнению, будущие системы необходимо проектировать так, чтобы они не стремились лишь к «среднему» результату. Алгоритмы должны стимулировать новизну и отклонение от шаблонов.
В противном случае генеративный искусственный интеллект рискует не обогащать культуру, а постепенно упрощать ее.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















