Американские военные использовали языковую модель Claude от Anthropic для выбора целей в ходе совместных американо-израильских ударов по Ирану. Об этом сообщил Wall Street Journal. По данным издания, Claude является основным ИИ-инструментом Центрального командования США на Ближнем Востоке.
Модель применялась для анализа разведывательных данных, проведения военных симуляций и — что важнее всего — для идентификации военных объектов. Проще говоря, Claude участвовал в планировании ударов, унёсших жизни более 550 иранцев, в том числе 165 погибших в результате атаки на начальную школу на юге страны.
Это особенно неудобно для Anthropic на фоне публичного противостояния компании с Пентагоном. В феврале военное ведомство потребовало от Anthropic снять два этических запрета: на слежку за гражданами США и на использование ИИ для полностью автономного летального оружия. Дедлайн прошёл — Anthropic не уступила. Многие расценили это как принципиальную позицию против военных амбиций администрации Трампа.
Но журналист-расследователь Спенсер Экерман, лауреат Пулитцеровской премии, указал на очевидное противоречие: этические линии Anthropic защищают американских граждан от слежки, но не препятствуют отбору целей для ударов за рубежом. «Амодеи, — написал Экерман, — явно не считает строительство паноптикума для наблюдения за иностранцами проблемой».
Контракт с военными был подписан заранее. Отстаивание двух конкретных запретов выглядит теперь как точечное ограничение, а не как системная этическая позиция. Anthropic провела чёткую границу — но провела её там, где это политически удобно.