Этот случай можно было бы считать анекдотом, если бы не его серьезные последствия. Профессор Стэнфордского университета Джефф Хэнкок, известный эксперт по дезинформации, признался в использовании искусственного интеллекта для создания документа, содержащего фальшивые судебные цитаты об ИИ. За эту работу, кстати, он получал $600 в час.
История началась с дела о законе Миннесоты, запрещающем использование ИИ для введения избирателей в заблуждение перед выборами. Хэнкок, выступая экспертом, использовал ChatGPT-4o для составления декларации, но что-то пошло не так. Противоположная сторона обнаружила, что некоторые цитаты в документе были полностью сфабрикованы.
«Я использую инструменты вроде GPT-4o для повышения качества и эффективности работы, включая поиск, анализ, форматирование и составление текстов», — объяснял потом Хэнкок. По его словам, он загружал в систему тезисы с пометкой «[cite]» как напоминание добавить академические цитаты позже. Однако при копировании текста в Microsoft Word эти пометки каким-то образом превратились в несуществующие источники.
История получила особый резонанс, учитывая, что ранее в этом году суд Нью-Йорка постановил: юристы обязаны раскрывать использование ИИ в экспертных заключениях. Более того, одно экспертное заключение даже было отклонено после обнаружения контента, сгенерированного искусственным интеллектом.
Офис генерального прокурора, узнав о ситуации, подал новое ходатайство, утверждая, что цитаты были «галлюцинациями ИИ», и Хэнкок не имел намерения вводить суд в заблуждение. Сейчас они просят разрешения на подачу исправленной декларации.
Сам Хэнкок в отдельном заявлении защищал использование ИИ, указывая на то, что генеративные инструменты вроде ChatGPT все чаще используются в исследованиях и составлении документов академиками и профессионалами. Он даже сослался на интеграцию ИИ в такие программы, как Microsoft Word и Gmail.
«Я выражаю искреннее сожаление за любую путаницу, которую это могло вызвать», — написал Хэнкок. «Тем не менее, я твердо стою за всеми существенными пунктами в декларации.»
Пока остается открытым вопрос о других судебных делах, где Хэнкок выступал экспертом — использовался ли ИИ в тех случаях, пока неизвестно.