Профессор права Чикагского университета Эрик Познер и исследователь Шивам Саран провели необычный эксперимент. Они повторили тест, который раньше проходили 61 федеральный судья США. Только теперь вместо человека задачи решала нейросеть GPT-5.
Результаты оказались неожиданными. GPT-5 применил правильную юридическую норму в 100% случаев. Живые судьи справились только в 52% ситуаций. Получается, что люди ошибались почти в половине случаев.
Узнать подробнее про клуб ShareAI
Суть теста была простой. Участникам давали спор о выборе применимого права в деле об автомобильной аварии. Исследователи меняли три параметра. Первый — действует жесткое правило или размытый стандарт. Второй — кто из сторон вызывает больше сочувствия. Третий — в каком штате случилось ДТП.
GPT-5 каждый раз следовал букве закона. Модель не поддавалась на симпатию к одной из сторон. Её не смущала двусмысленность нормы. Она просто применяла закон как написано.
Ученые проверили и другие модели. Gemini 3 Pro тоже показал 100% точность. Gemini 2.5 Pro применил закон верно в 92% случаев. Модель o4-mini справилась в 79% ситуаций. Llama 4 Maverick дал 75% правильных ответов. Хуже всех оказались Llama 4 Scout и GPT-4.1. Обе модели показали по 50%. Это уровень случайного выбора, как при подбрасывании монетки.
Но авторы исследования делают важный вывод. Они считают, что точность AI — это не плюс, а минус. Познер и Саран утверждают: формализм моделей является ограничением, а не достоинством.
Живые судьи иногда отступают от буквы закона. Они делают это, когда строгое применение нормы приведет к несправедливому результату. По мнению авторов, именно в этом состоит сила человеческого правосудия. AI такой гибкостью не обладает.
Исследователи задают важный вопрос. Готово ли общество принять решения, в которых нет места для человеческого суждения? Ведь люди ждут от суда не только следования закону, но и справедливости.
Это уже вторая работа тех же авторов на эту тему. В прошлом году они тестировали GPT-4o на деле о военных преступлениях. Результат был похожим — модель оказалась формальнее людей.
Вопрос Познера и Сарана остается открытым. Если модель всегда следует закону, а общество ждет еще и справедливости — какую роль AI может занять в правосудии?

