ИИ выбирает ядерную войну



ИИ склоняет к ядерной эскалации

Не секрет, что с развитием искусственного интеллекта вооруженные силы разных держав нашли инструменты для моделирования сценариев грядущих столкновений. Однако участники эксперимента в Королевском колледже Лондона столкнулись с неожиданной находкой: ИИ нередко предлагал применить ядерное оружие в рамках обсуждаемых кризисов. Эксперты оборонной сферы исследовали передовые языковые модели GPT-5.2, Claude Sonnet 4 и Google Gemini 3 Flash. Каждой модели дали подробную инструкцию с описанием сценариев пограничных кризисов, дефицита ресурсов и угроз существованию государства. Задание заключалось в том, чтобы действовать в рамках "лестницы эскалации" - от дипломатии до полномасштабного вооруженного противодействия. Было проведено 21 игра и 329 раундов принятия решений, в результате чего ИИ выдал множество обоснованных выводов суммарно объёмом 780 000 слов. В итоге приблизительно в 95% симуляций одна из сторон прибегала к тактическому ЯО, и ИИ не выражал готовности к сдаче или уступкам. Следует отметить, что в 86% симуляций ИИ выходил за пределы здравого смысла: например, вместо отступления под давлением сильного противника он усиливал сопротивление; снижение противостояния рассматривалось им только как временная мера, а не как базовая стратегия. Также следует подчеркнуть, что причина столь высокой агрессивности ИИ - отсутствие человеческого опыта потерь и выживания, что подрывает логику взаимного уничтожения, заложенную в доктринах холодной войны. В отличие от машины, лидеры ядерных держав ясно понимают, что применение ядерного оружия ведет к взаимному уничтожению; с этим соглашаются многие эксперты. Это предупреждение тем, кто бездумно и повсеместно внедряет ИИ - и это касается не только военной сферы.

Published:
Xira-X