Глава Anthropic Дарио Амодеи опубликовал заявление о конфликте компании с Министерством войны США. Ведомство требует убрать два ограничения в использовании Claude — запрет на массовую слежку за гражданами и на полностью автономное оружие. Anthropic отказывается.
Компания активно работает с армией: Anthropic первой из ведущих ИИ-компаний развернула модели в засекреченных сетях правительства, в национальных лабораториях и для клиентов в сфере нацбезопасности. Claude применяется для разведки, планирования операций и киберопераций. Кроме того, Anthropic отказалась от нескольких сотен миллионов долларов выручки, закрыв доступ к Claude для компаний, связанных с Коммунистической партией Китая.
Узнать подробнее про клуб ShareAI
Однако два сценария Anthropic считает недопустимыми. Первый — массовая слежка внутри страны. По словам Амодеи, мощный ИИ позволяет собирать разрозненные публичные данные — геолокацию, историю браузера, связи — в полный портрет любого человека автоматически и в огромном масштабе. Второй запрет — полностью автономное оружие без участия человека в выборе и поражении целей. Anthropic считает, что сегодняшние модели недостаточно надежны для таких систем. Компания предложила совместную R&D-работу с министерством, но получила отказ.
В ответ Министерство войны пригрозило отключить Anthropic от своих систем, присвоить ей статус «риска для цепочки поставок» — ярлык, ранее применявшийся только к противникам США — и задействовать Закон об оборонном производстве для принудительного снятия ограничений. Амодеи назвал эти угрозы противоречивыми: одна делает компанию угрозой безопасности, другая — незаменимой для нее.
Anthropic заявила, что не изменит позицию ни при каких обстоятельствах и готова обеспечить плавный переход к другому подрядчику, если министерство решит разорвать сотрудничество.
Anthropic подчеркивает, что эти два исключения до сих пор никак не мешали развертыванию Claude в вооруженных силах — и настаивает на их обязательном сохранении во всех будущих контрактах с министерством.

