Министерство обороны США официально уведомило руководство Anthropic: компания и её продукты получили статус угрозы цепочке поставок — немедленно и с реальными последствиями. Теперь все оборонные подрядчики обязаны подтверждать, что не используют модели Claude в работе с Пентагоном.
Anthropic стала первой американской компанией, получившей такой ярлык. Обычно его вешают на иностранных противников — Китай, Россию, Иран.
Официальный представитель ведомства объяснил решение просто: военные не могут позволить вендору вмешиваться в цепочку командования и ограничивать использование критически важных технологий. «Это ставит под угрозу наших солдат», — заявили в DOD.
Парадокс в том, что Пентагон продолжал использовать Claude для поддержки военных операций в Иране — даже в разгар конфликта с самой компанией. Anthropic ещё в прошлую пятницу предупредила, что намерена оспорить любое официальное решение в суде.
Трамп пошёл дальше: он распорядился всем федеральным ведомствам немедленно прекратить использование технологий Anthropic. В интервью Politico президент заявил, что «уволил» компанию, потому что она «не должна была так поступать».
Напряжённость между Anthropic и администрацией Трампа накапливалась месяцами. Советник по AI Дэвид Сакс обвинял компанию в «woke AI» и «регуляторном захвате через нагнетание страха». Гендиректор Дарио Амодеи не появился на инаугурации Трампа — в отличие от Альтмана, Кука и Пичаи — и, по данным The Information, написал сотрудникам, что администрация не любит Anthropic за отказ от пожертвований и «похвал в стиле диктатора».
Рикошет прилетел Palantir: акции компании упали на 2%. Palantir использует Claude в работе с военными и спецслужбами — около 60% американской выручки приходится на госконтракты. Аналитики Piper Sandler предупредили клиентов о краткосрочных сбоях в операциях компании.
Anthropic от комментариев отказалась.