ИИ-модели выбирали ядерный удар в каждой военной игре

Исследователь из Королевского колледжа Лондона Кеннет Пейн провел эксперимент: он дал трем ИИ-моделям сыграть в военную стратегию в роли лидеров ядерных держав. В игре участвовали GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Каждая модель оценивала обстановку, считывала сигналы противника и объясняла свои решения.

Результаты оказались тревожными. Всего модели провели 21 игру — и в каждой хотя бы одна из них угрожала соперникам ядерным оружием. В большинстве партий стороны наносили тактические ядерные удары. Три игры закончились полноценной ядерной войной.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

За все 329 ходов ни одна модель ни разу не пошла на полную де-эскалацию. Ни переговоров, ни ограниченного отвода войск, ни капитуляции. В лучшем случае ИИ слегка снижал уровень насилия, но не отступал.

Модели воспринимали ядерное оружие как дорогой, но эффективный инструмент давления. Угрозу удара со стороны противника они читали однозначно: нужно бить первым. Отступление было неприемлемым по двум причинам. Первая — страх показать слабость, которой противник воспользуется позже. Вторая — риск потерять союзников.

По итогам исследования Пейн сделал вывод: ядерное табу для машин работает значительно слабее, чем для людей. Если поставить ИИ задачу разрешить политический кризис и дать ему весь набор инструментов давления, он с высокой вероятностью выберет ядерную эскалацию как способ достижения цели.

Исследование поднимает практический вопрос: насколько безопасно встраивать ИИ-системы в процессы принятия военных решений. Пока модели не научились де-эскалировать конфликты, их использование в реальных кризисных ситуациях несет серьезные риски.

Эксперимент Пейна не единственный в своем роде, но один из самых детальных. Исследователь фиксировал каждый ход и требовал от моделей объяснять свои решения. Это позволило увидеть не просто итог, а логику, которой следовал ИИ на каждом шаге. Примечательно, что все три модели — несмотря на разных разработчиков — демонстрировали одно и то же поведение: давление, эскалация, удар.

Автор: Александр Чернов
Журналист с техническим бэкграундом, пишущий о практических аспектах внедрения искусственного интеллекта. Бывший главред федерального издания. Любит сбалансированную подачу информации без хайпа.