Американский федеральный судья Генри Т. Уингейт вынес постановление с грубыми фактическими ошибками — в документе указаны несуществующие стороны, ложные цитаты из закона и ссылки на судебные дела, которых не существует. Это вызвало подозрения, что к созданию текста мог быть привлечен искусственный интеллект. Об этом сообщает Mississippi Today.
Так, 78-летний Уингейт 20 июля вынес постановление, которое приостанавливает действие закона штата Миссисипи о разнообразии и инклюзивности в образовании. Юристы, изучившие документ, обнаружили в нем ошибки и обратились к судье за разъяснениями.
Не те стороны, не те цитаты, не те дела
В частности, в документе были указаны организации, которые никогда не участвовали в иске — среди них Библиотечная ассоциация Миссисипи и женская организация Delta Sigma Theta Sorority Inc. Также в решении приведены цитаты из законодательства и искового заявления, которых на самом деле нет ни в одном из оригинальных документов.
Позже судья исправил постановление, однако прежняя версия была удалена из судебного реестра и больше недоступна для общественности. При этом обновленный документ датирован 20 июля — задним числом, несмотря на то что официально он был опубликован только через три дня.
«Наши юристы такого еще не видели», — заявил представитель офиса генерального прокурора штата на условиях анонимности для Mississippi Today.
Искусственный интеллект под подозрением
Некоторые юристы предполагают, что к созданию документа могла быть привлечена система искусственного интеллекта — на это указывают типичные «галлюцинации» ИИ, когда генератор текста ссылается на вымышленные прецеденты или искажает факты.
Судья Уингейт не прокомментировал ситуацию и не ответил на запросы о возможном использовании ИИ.
Несмотря на исправления, в новой версии постановления по-прежнему упоминается дело Cousins v. School Board of City of Norfolk (1974), которое либо не существует, либо содержит ошибочную ссылку — журналистам не удалось его найти в открытых правовых базах данных.
Профессор права Университета Майами Кристина Фрогок, изучающая влияние ИИ на юридическую этику, отметила: «Я не знаю, как объяснить эту историю. Чувствую себя, как Алиса в Зазеркалье».
Этическая ответственность — не для всех?
Когда юристы используют ИИ для подготовки документов и приводят фальшивые ссылки или вымышленные цитаты, суды часто применяют санкции. Например, недавно суд в Колорадо оштрафовал двух адвокатов на несколько тысяч долларов за подобные ошибки в подаче, сгенерированной ИИ.
Однако, когда аналогичные ошибки допускает сам судья — механизмов воздействия практически нет.
«Суд может требовать объяснений от адвоката, но не наоборот. Мы, скорее всего, так и не узнаем, что произошло на самом деле, если апелляционный суд не заинтересуется этим делом», — добавила Фрогок.
Следующее заседание по делу назначено на 5 августа — стороны будут обсуждать возможность введения предварительного запрета на действие закона.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.