GPT-5 одержал победу над судьями-людьми в юридическом противостоянии
Ученые пришли к выводу, что модель GPT-5 от OpenAI соблюдает нормы права точнее, чем судьи-люди. В то же время исследователи оставляют открытым вопрос: стоит ли доверять искусственному интеллекту принятие судебных решений, пишет The Register.
Профессор права Чикагского университета Эрик Познер и исследователь Шивам Саран продолжили работу, начатую в предыдущем исследовании под названием «Judge AI: A Case Study of Large Language Models in Judicial Decision-Making».
В той работе они тестировали модель GPT-4o, которая на тот момент была передовой, на примере дела о военных преступлениях. Модели предоставили роль судьи апелляционной инстанции Международного уголовного трибунала по бывшей Югославии и предложили определить, оставлять ли в силе решение нижестоящей инстанции.
ИИ получил описание фактов дела, правовые позиции сторон, нормы права, обобщенную судебную практику и решение суда первой инстанции. Целью было сравнить его ответ с предыдущими исследованиями, которые анализировали, как аналогичное дело решали судьи и студенты-юристы.
Ранее было установлено, что студенты права склонны действовать более формалистично — то есть строго придерживаться прецедентов, тогда как судьи чаще учитывают внеправовые факторы. GPT-4o продемонстрировала поведение, более близкое к студентам: модель четко придерживалась буквы закона и не учитывала эмоциональные или личные характеристики сторон.
В новом исследовании под названием «Silicon Formalism: Rules, Standards, and Judge AI» ученые протестировали уже GPT-5, воспроизведя эксперимент, в котором ранее участвовал 61 федеральный судья США.
На этот раз судьям предлагали более повседневные вопросы — определить, какое право штата применяется в деле о дорожно-транспортном происшествии.
По результатам тестирования GPT-5 продемонстрировала безупречный результат: модель применила юридически правильное решение в 100% случаев, не выявив галлюцинаций или логических ошибок. Для сравнения, судьи придерживались буквы закона лишь в 52% случаев.
В то же время исследователи подчеркивают: это не означает, что судьи менее законопослушны. В случаях, когда правовая норма является стандартом или рекомендацией, а не жестким правилом, судьи имеют право на дискрецию — то есть могут учитывать моральные, социальные или политические последствия решения.
Помимо GPT-5, полное соответствие закону продемонстрировала также Google Gemini 3 Pro. Другие модели показали более низкие результаты:
Gemini 2.5 Pro — 92%
o4-mini — 79%
Llama 4 Maverick — 75%
Llama 4 Scout — 50%
GPT-4.1 — 50%
Авторы подчеркивают, что ИИ демонстрирует склонность к жесткому формализму и отходу от человеческой дискреции.
В статье 2025 года Познер и Саран отмечают, что «очевидная слабость человеческих судей на самом деле является их силой, поскольку они могут отступить от правил, если их буквальное применение приведет к морально, социально или политически нежелательным последствиям».
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.


















