Армия США расследует, участвовал ли искусственный интеллект в выборе цели при ударе по иранской начальной школе. В результате авиаудара погибли не менее 175 человек — в основном маленькие девочки.
Согласно предварительным выводам, офицеры Центрального командования США создали координаты цели, используя устаревшие данные разведки. Военное ведомство теперь проверяет, не были ли задействованы «модели искусственного интеллекта, программы обработки данных или другие технические средства сбора разведывательных данных».
Газета New York Times выяснила, что Claude от Anthropic работает с системой Maven Smart System Национального агентства геопространственной разведки и «определяет объекты, представляющие интерес для офицеров военной разведки». Спутниковые снимки показывают: школа была отделена от соседней военной базы забором ещё в период с 2013 по 2016 год. Иными словами, данные могли быть устаревшими на целое десятилетие.
Пентагон отказался подтвердить или опровергнуть причастность ИИ к выбору цели, когда СМИ задали прямой вопрос. Президент Трамп поначалу утверждал, что Иран сам убил своих детей, однако впоследствии американские официальные лица подтвердили: удар нанёс американский крылатый ракетный комплекс Tomahawk.
Показательный момент: администрация Трампа официально признала ИИ Anthropic «риском для цепочки поставок» — формулировка, вызвавшая шок в отрасли. Но даже после этого армия продолжила использовать Claude в ходе военной операции.
Официальная позиция остаётся неизменной: ответственность за ошибку несёт человек — вне зависимости от того, как именно была выбрана цель. Проблема в том, что это утверждение не отвечает на главный вопрос: если ИИ обрабатывал устаревшие данные и не сигнализировал об ошибке, граница между «ошибкой машины» и «ошибкой человека» становится крайне размытой.