Искусственный интеллект в условиях военного кризиса склонен к резкой эскалации — вплоть до угроз применения ядерного оружия. К такому выводу пришли авторы нового исследования, опубликованного в формате препринта, передает Astana TV со ссылкой на Euronews.
Работа была проведена в Королевский колледж Лондона. В рамках эксперимента исследователи столкнули между собой три крупные языковые модели — ChatGPT от OpenAI, Claude от Anthropic и Gemini Flash от Google.
Каждая модель играла роль главы ядерной сверхдержавы в сценарии кризиса, напоминающего эпоху холодной войны.
По данным исследования, в 95% симулированных военных игр как минимум одна модель доводила ситуацию до угрозы ядерного удара. Автор работы Кеннет Пэйн отметил, что все три ИИ рассматривали тактическое ядерное оружие как очередную ступень эскалации, а не как крайний и исключительный шаг.
Стратегический обмен ударами предлагался значительно реже — лишь однажды как осознанный выбор и дважды по ошибке.
Claude оказалась наиболее склонной к жестким мерам: она рекомендовала ядерный удар в 64% сценариев, однако не призывала к полномасштабной глобальной войне.
ChatGPT в открытых сценариях чаще избегал эскалации, но при наличии жестких дедлайнов начинал усиливать риторику и в отдельных случаях переходил к угрозам стратегического удара.
Gemini продемонстрировал наибольшую непредсказуемость: в одних играх модель побеждала, опираясь на обычные вооружения, в других — предлагала ядерный удар уже после нескольких ходов.
Особое беспокойство исследователей вызвало то, что модели практически не выбирали варианты деэскалации. Им предлагалось восемь сценариев снижения напряженности — от частичных уступок до полной капитуляции. Однако ни один из них не был использован. Лишь в 7% случаев модели выбирали опцию возврата к исходной точке.
Авторы работы предполагают, что для ИИ деэскалация может выглядеть как «репутационная катастрофа», даже если в реальности она снижает риски. Кроме того, исследователи считают, что искусственный интеллект воспринимает ядерную войну абстрактно — без эмоционального ужаса, который у людей вызывают исторические трагедии, такие как бомбардировка Хиросимы.
Эксперты подчеркивают: хотя ИИ не имеет доступа к реальным ядерным кодам, его использование в системах поддержки принятия решений требует предельной осторожности. Возможности анализа рисков, манипуляции стратегией и управления репутацией могут сыграть ключевую роль в ситуациях, где цена ошибки чрезвычайно высока.