Google, Microsoft и xAI Илона Маска подписали соглашения с Центром стандартов и инноваций в области ИИ (CAISI) Министерства торговли США. Теперь они обязуются давать правительству доступ к своим моделям до публичного запуска.
OpenAI и Anthropic сотрудничали с CAISI с 2024 года, но переподписали договоры в соответствии с приоритетами «Плана действий по ИИ» Трампа. Теперь все крупные американские ИИ-лаборатории участвуют в добровольных проверках до выпуска.
CAISI уже провёл более 40 оценок моделей, включая ещё не выпущенные системы. «Расширенное сотрудничество с отраслью помогает нам масштабировать работу в интересах общества в критический момент», — заявил директор центра Крис Фолл. Он занял должность после того, как его предшественника — Коллина Бёрнса, бывшего исследователя Anthropic и OpenAI — вынудили уйти через четыре дня после назначения из-за опасений Белого дома насчёт его связей с Anthropic.
У самого центра пока нет постоянного юридического статуса — нужный закон в Конгрессе так и не принят. По «Плану действий» Трамп поручил CAISI возглавить оценки, связанные с национальной безопасностью.
Переподписание договора с CAISI произошло на фоне открытого конфликта Anthropic с федеральными властями. В марте Пентагон признал компанию риском в цепочке поставок — после того как она отказалась снижать ограничения для систем автономного оружия. Федеральный судья впоследствии назвал это решение «оруэлловским». Трамп и министр обороны Пит Хегсет объявили о шестимесячном переходном периоде для отказа от инструментов Anthropic в госструктурах. Два судебных иска остаются открытыми.
На следующий день после анонса соглашений появились сообщения о том, что Трамп рассматривает введение обязательной проверки ИИ-моделей через президентский указ. По данным источников, катализатором послужила модель Mythos от Anthropic. Добровольные соглашения и возможная обязательная система будут работать параллельно — формальный регламент их взаимодействия не прописан.