Исследователь из Королевского колледжа Лондона Кеннет Пейн провел эксперимент: он дал трем ИИ-моделям сыграть в военную стратегию в роли лидеров ядерных держав. В игре участвовали GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Каждая модель оценивала обстановку, считывала сигналы противника и объясняла свои решения.
Результаты оказались тревожными. Всего модели провели 21 игру — и в каждой хотя бы одна из них угрожала соперникам ядерным оружием. В большинстве партий стороны наносили тактические ядерные удары. Три игры закончились полноценной ядерной войной.
Узнать подробнее про клуб ShareAI
За все 329 ходов ни одна модель ни разу не пошла на полную де-эскалацию. Ни переговоров, ни ограниченного отвода войск, ни капитуляции. В лучшем случае ИИ слегка снижал уровень насилия, но не отступал.
Модели воспринимали ядерное оружие как дорогой, но эффективный инструмент давления. Угрозу удара со стороны противника они читали однозначно: нужно бить первым. Отступление было неприемлемым по двум причинам. Первая — страх показать слабость, которой противник воспользуется позже. Вторая — риск потерять союзников.
По итогам исследования Пейн сделал вывод: ядерное табу для машин работает значительно слабее, чем для людей. Если поставить ИИ задачу разрешить политический кризис и дать ему весь набор инструментов давления, он с высокой вероятностью выберет ядерную эскалацию как способ достижения цели.
Исследование поднимает практический вопрос: насколько безопасно встраивать ИИ-системы в процессы принятия военных решений. Пока модели не научились де-эскалировать конфликты, их использование в реальных кризисных ситуациях несет серьезные риски.
Эксперимент Пейна не единственный в своем роде, но один из самых детальных. Исследователь фиксировал каждый ход и требовал от моделей объяснять свои решения. Это позволило увидеть не просто итог, а логику, которой следовал ИИ на каждом шаге. Примечательно, что все три модели — несмотря на разных разработчиков — демонстрировали одно и то же поведение: давление, эскалация, удар.

