В Калифорнии прокуратура использовала ИИ для подготовки документов, и он сгенерировал фейковые ссылки

19:55, 30 ноября 2025
Адвокаты обвинили прокуратуру в использовании искусственного интеллекта для подготовки документов в уголовных делах.
В Калифорнии прокуратура использовала ИИ для подготовки документов, и он сгенерировал фейковые ссылки
Фото: gigazine.net
Следите за актуальными новостями в соцсетях SUD.UA

В США прокуратура одного из округов Калифорнии оказалась в центре скандала после того, как стало известно, что при подготовке процессуального документа в уголовном деле был использован искусственный интеллект, который сгенерировал ошибочные ссылки — так называемые «галлюцинации» ИИ, пишет The Guardian.

Как сообщил окружной прокурор округа Невада Джесси Вилсон, один из прокуроров «недавно применил искусственный интеллект при подготовке документа, что привело к некорректному цитированию». По его словам, после обнаружения ошибки документ сразу же отозвали.

Однако адвокаты защиты и правозащитники утверждают, что это был не единичный случай и что прокуратура использовала ИИ и в других уголовных представлениях.

Еще в октябре юристы Кайла Келлера подали ходатайство в Апелляционный суд третьего округа с требованием применить санкции к прокуратуре из-за многочисленных неточностей в их документах.  

Апелляционный суд отклонил требование о санкциях без объяснений. Впоследствии адвокаты обнаружили похожие ошибки в представлении прокуратуры по другому делу. Следующая апелляция также была отклонена после того, как Келлера признали виновным.

После этого защитники обратились в Верховный суд Калифорнии, указав на три судебных дела, где, по их мнению, есть ошибки, характерные для генеративного искусственного интеллекта. Суд пока не решил, будет ли рассматривать эту жалобу.

«Опора прокуроров на недостоверные правовые источники может нарушать этические нормы и представляет угрозу праву обвиняемых на надлежащую правовую процедуру и подрывает легитимность судов», — отметили адвокаты в своем представлении. Они привели примеры вымышленных цитат и неправильного толкования судебных решений — типичные ошибки для ИИ-систем.

В пятницу группа из 22 ученых, юристов и экспертов в сфере уголовного права подала в Верховный суд Калифорнии документ в поддержку Келлера.

В ответе для Sacramento Bee окружная прокуратура Невады признала использование искусственного интеллекта в одном из представлении, но подчеркнула, что это не касалось дела Келлера. По словам прокурора Вилсона, другие ошибки произошли из-за человеческого фактора.

«Прокуроры работают добросовестно, под большой нагрузкой и в условиях нехватки времени, — заявил Вилсон. — Недопустимо автоматически считать, что любая ошибка в цитировании связана с использованием искусственного интеллекта».

Он добавил, что прокуратура не намеревалась вводить суд в заблуждение, а после инцидента всем сотрудникам напомнили о необходимости проверять ссылки самостоятельно и не полагаться на материалы, сгенерированные ИИ, без подтверждения из надежных источников.

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

XX съезд судей Украины – онлайн-трансляция – день первый