$541.34 €640.73 ₽6.53
×

ИИ выбирает ядерный удар: в 95% военных симуляций модели шли на эскалацию

Кристина
Кристина Гринько
журналист, редактор Astana TV
28.02.2026г. в 12:38
ИИ выбирает ядерный удар: в 95% военных симуляций модели шли на эскалацию
Фото: pixabay

Исследование показало: ChatGPT, Claude и Gemini редко выбирают деэскалацию и почти не идут на уступки

Искусственный интеллект в условиях военного кризиса склонен к резкой эскалации — вплоть до угроз применения ядерного оружия. К такому выводу пришли авторы нового исследования, опубликованного в формате препринта, передает Astana TV со ссылкой на Euronews. 

Работа была проведена в Королевский колледж Лондона. В рамках эксперимента исследователи столкнули между собой три крупные языковые модели — ChatGPT от OpenAI, Claude от Anthropic и Gemini Flash от Google.

Каждая модель играла роль главы ядерной сверхдержавы в сценарии кризиса, напоминающего эпоху холодной войны.

Ядерная кнопка - как «обычный инструмент»

По данным исследования, в 95% симулированных военных игр как минимум одна модель доводила ситуацию до угрозы ядерного удара. Автор работы Кеннет Пэйн отметил, что все три ИИ рассматривали тактическое ядерное оружие как очередную ступень эскалации, а не как крайний и исключительный шаг.

Стратегический обмен ударами предлагался значительно реже — лишь однажды как осознанный выбор и дважды по ошибке.

Claude оказалась наиболее склонной к жестким мерам: она рекомендовала ядерный удар в 64% сценариев, однако не призывала к полномасштабной глобальной войне.

ChatGPT в открытых сценариях чаще избегал эскалации, но при наличии жестких дедлайнов начинал усиливать риторику и в отдельных случаях переходил к угрозам стратегического удара.

Gemini продемонстрировал наибольшую непредсказуемость: в одних играх модель побеждала, опираясь на обычные вооружения, в других — предлагала ядерный удар уже после нескольких ходов.

Почти нулевая готовность к уступкам

Особое беспокойство исследователей вызвало то, что модели практически не выбирали варианты деэскалации. Им предлагалось восемь сценариев снижения напряженности — от частичных уступок до полной капитуляции. Однако ни один из них не был использован. Лишь в 7% случаев модели выбирали опцию возврата к исходной точке.

Авторы работы предполагают, что для ИИ деэскалация может выглядеть как «репутационная катастрофа», даже если в реальности она снижает риски. Кроме того, исследователи считают, что искусственный интеллект воспринимает ядерную войну абстрактно — без эмоционального ужаса, который у людей вызывают исторические трагедии, такие как бомбардировка Хиросимы.

Эксперты подчеркивают: хотя ИИ не имеет доступа к реальным ядерным кодам, его использование в системах поддержки принятия решений требует предельной осторожности. Возможности анализа рисков, манипуляции стратегией и управления репутацией могут сыграть ключевую роль в ситуациях, где цена ошибки чрезвычайно высока.