Claude от Anthropic помогал выбирать цели для ударов по Ирану

Claude от Anthropic помогал выбирать цели для ударов по Ирану

Американские военные использовали языковую модель Claude от Anthropic для выбора целей в ходе совместных американо-израильских ударов по Ирану. Об этом сообщил Wall Street Journal. По данным издания, Claude является основным ИИ-инструментом Центрального командования США на Ближнем Востоке.

Модель применялась для анализа разведывательных данных, проведения военных симуляций и — что важнее всего — для идентификации военных объектов. Проще говоря, Claude участвовал в планировании ударов, унёсших жизни более 550 иранцев, в том числе 165 погибших в результате атаки на начальную школу на юге страны.

Это особенно неудобно для Anthropic на фоне публичного противостояния компании с Пентагоном. В феврале военное ведомство потребовало от Anthropic снять два этических запрета: на слежку за гражданами США и на использование ИИ для полностью автономного летального оружия. Дедлайн прошёл — Anthropic не уступила. Многие расценили это как принципиальную позицию против военных амбиций администрации Трампа.

Но журналист-расследователь Спенсер Экерман, лауреат Пулитцеровской премии, указал на очевидное противоречие: этические линии Anthropic защищают американских граждан от слежки, но не препятствуют отбору целей для ударов за рубежом. «Амодеи, — написал Экерман, — явно не считает строительство паноптикума для наблюдения за иностранцами проблемой».

Контракт с военными был подписан заранее. Отстаивание двух конкретных запретов выглядит теперь как точечное ограничение, а не как системная этическая позиция. Anthropic провела чёткую границу — но провела её там, где это политически удобно.

Александр Чернов
Александр Чернов

Журналист с техническим бэкграундом, пишущий о практических аспектах внедрения искусственного интеллекта. Бывший главред федерального издания. Любит сбалансированную подачу информации без хайпа.