Глава Anthropic Дарио Амодеи опубликовал заявление о конфликте компании с Министерством войны США. Ведомство требует убрать два ограничения в использовании Claude - запрет на массовую слежку за гражданами и на полностью автономное оружие. Anthropic отказывается.
Компания активно работает с армией: Anthropic первой из ведущих ИИ-компаний развернула модели в засекреченных сетях правительства, в национальных лабораториях и для клиентов в сфере нацбезопасности. Claude применяется для разведки, планирования операций и киберопераций. Кроме того, Anthropic отказалась от нескольких сотен миллионов долларов выручки, закрыв доступ к Claude для компаний, связанных с Коммунистической партией Китая.
Однако два сценария Anthropic считает недопустимыми. Первый - массовая слежка внутри страны. По словам Амодеи, мощный ИИ позволяет собирать разрозненные публичные данные - геолокацию, историю браузера, связи - в полный портрет любого человека автоматически и в огромном масштабе. Второй запрет - полностью автономное оружие без участия человека в выборе и поражении целей. Anthropic считает, что сегодняшние модели недостаточно надежны для таких систем. Компания предложила совместную R&D-работу с министерством, но получила отказ.
В ответ Министерство войны пригрозило отключить Anthropic от своих систем, присвоить ей статус «риска для цепочки поставок» - ярлык, ранее применявшийся только к противникам США - и задействовать Закон об оборонном производстве для принудительного снятия ограничений. Амодеи назвал эти угрозы противоречивыми: одна делает компанию угрозой безопасности, другая - незаменимой для нее.
Anthropic заявила, что не изменит позицию ни при каких обстоятельствах и готова обеспечить плавный переход к другому подрядчику, если министерство решит разорвать сотрудничество.
Anthropic подчеркивает, что эти два исключения до сих пор никак не мешали развертыванию Claude в вооруженных силах - и настаивает на их обязательном сохранении во всех будущих контрактах с министерством.