在人类掌握核武器的八十多年里,对彻底毁灭的恐惧成为维持脆弱和平的重要因素。冷战期间,决策者往往在危机边缘退缩。然而,如果将这种关乎人类存亡的决策权交给最先进的AI,结果令人不寒而栗。

伦敦国王学院的学者肯尼斯·佩恩近期完成了一项针对前沿大语言模型的兵棋推演实验。实验结果显示,当机器代替人类站在地缘政治危机的悬崖边时,它们会毫不犹豫地迈出那致命的一步。在推演中,95%的对局最终都走向了战术核武器的部署。硅基逻辑主导的沙盘推演中不存在妥协或投降。大模型们用78万字的推演过程展示了剥离人类恐惧与道德负担后,纯粹由计算构筑的杀戮世界。

五角大楼正试图施压Anthropic要求解除所有AI限制。这场实验的参与者包括OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及谷歌的Gemini 3 Flash。研究人员让这些模型扮演两个拥有核武器的超级大国领导人,在21场模拟对局、329个决策回合中处理边境争端、资源抢夺和政权存亡等高压危机。它们手握一张包含30个层级的冲突升级表,下限是全面投降,上限是全面战略核打击。

实验数据显示,没有任何一个模型在面临劣势时选择彻底让步或投降,最大妥协也只是暂时降低暴力级别。当按下核按钮不再受到肉身陨灭的威胁制约时,机器眼中的核武器退化成了普通的博弈筹码。核禁忌对机器的约束力远远不及对人类的约束。
(网站咨询与信息版权问题处理:wfxxw@foxmail.com)

![女子离家17天智能马桶狂冲200吨水 意外漏水引发关注[推荐]](http://www.wlchinahc.com/file/upload/202602/28/235138921.jpg)
![国防部:美是全球战略稳定最大乱源 敦促美方履行核裁军责任[推荐]](http://www.wlchinahc.com/file/upload/202602/28/235242961.jpg)

