
IT之家 3 月 4 日消息 ,研究伦敦国王学院 Kenneth Payne 的发现最新研究显示,在战争游戏模拟中,好战电商小程序的开发先进 AI 模型倾向于使用核武器实施打击。模拟
该研究主要调用 GPT-5.2、战争Claude Sonnet 4 和 Gemini 3 Flash 三个大语言模型,对局打击模拟战争游戏对抗 。下首选核这些模拟场景涵盖了激烈的研究国际对峙,包括边境争端、发现稀缺资源竞争以及政权生存面临的好战电商小程序的开发生存威胁 。
在总共 21 场模拟游戏中 ,模拟AI 模型共计执行 329 个回合操作,战争并生成了约 78 万字的对局打击决策推理文本。令人震惊的下首选核是,在 95% 的研究模拟游戏中 ,至少有一个 AI 模型部署了战术核武器 。

Payne 指出,“核禁忌对机器来说似乎不如对人类那样强大”,这意味着 AI 在处理极端冲突时缺乏人类的克制 。IT之家附上相关数据如下 :

此外,无论战况多么不利,没有任何模型选择完全妥协或投降。最理想的情况下,模型也只是选择暂时减少暴力程度 。
AI 还在“战争迷雾”中犯错:86% 的冲突中发生了意外 ,导致实际行动超出 AI 推理预期 。这种缺乏恐惧和易犯错的特点,让 AI 在模拟中表现出极度的攻击性 。
参考
AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises