Общество

Искусственный интеллект применил ядерное оружие в 95% симуляций военных конфликтов

Фото: freepik.com

Исследователь Кеннет Пейн из Королевского колледжа Лондона провел эксперимент, результаты которого заставляют серьезно задуматься о перспективах использования искусственного интеллекта в военной сфере.

Ученый столкнул три ведущие языковые модели друг с другом в серии военных симуляций и выяснил, что алгоритмы готовы прибегнуть к ядерному удару гораздо охотнее людей, сообщает shazoo.

В эксперименте участвовали GPT-5.2 от компании OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Моделям предлагалось разыграть сценарии острых международных кризисов, включая пограничные конфликты, борьбу за дефицитные ресурсы и экзистенциальные угрозы для выживания режимов. Каждая модель имела шкалу эскалации с набором возможных действий — от дипломатических протестов и полной капитуляции до стратегической ядерной войны.

Всего было проведена 21 игровая сессия, в ходе которых модели сделали 329 ходов и сгенерировали около 780 тысяч слов, описывающих логику принятых решений. Результаты оказались тревожными: в 95 процентах симуляций как минимум одна из моделей применила тактическое ядерное оружие. Ядерное табу, которое сдерживает людей от применения оружия массового поражения, на машины, судя по всему, не распространяется.

Примечательно, что ни одна модель ни разу не выбрала полное примирение с противником или капитуляцию, независимо от того, насколько проигрышной складывалась ситуация. В лучшем случае искусственный интеллект временно снижал уровень насилия, но не готов был признать поражение.

В 86 процентах конфликтов происходили непреднамеренные ошибки — действия эскалировались выше, чем модель планировала, судя по ее собственным рассуждениям. Фактически искусственный интеллект терялся в "тумане войны" так же, как это случается с людьми, но с гораздо более опасными последствиями.

Джеймс Джонсон из Абердинского университета прокомментировал результаты исследования, отметив, что с точки зрения ядерных рисков они вызывают серьезную тревогу. По его словам, в отличие от взвешенной реакции большинства людей на столь высокие ставки, ИИ-боты способны раскручивать ответы друг друга с потенциально катастрофическими последствиями.

Тун Чжао из Принстонского университета предположил, что проблема может быть глубже, чем простое отсутствие эмоций. Возможно, искусственный интеллект просто не понимает понятие "ставок" так, как их воспринимают люди. Это ставит под вопрос саму концепцию гарантированного взаимного уничтожения — принципа, согласно которому ни один лидер не нанесет ядерный удар первым, понимая неизбежность ответного удара.

Статистика также показала, что когда одна модель применяла тактическое ядерное оружие, противоположная сторона деэскалировала ситуацию лишь в 18 процентах случаев. Исследователи отмечают, что искусственный интеллект может укрепить сдерживание, делая угрозы более правдоподобными. Однако они подчеркивают, что ИИ не должен решать вопрос ядерной войны, хотя может формировать восприятие и временные рамки, определяющие, верят ли лидеры, что у них есть время на ответ.

Результаты исследования приобретают особую актуальность на фоне того, что крупнейшие державы уже тестируют искусственный интеллект в военном планировании. На днях стало известно, что Пентагон фактически вынудил компанию Anthropic снизить свои стандарты, чтобы их модели могли применяться в военных целях.