95%模拟核危机场景,AI为何倾向部署核武器?
3月3日,IT之家援引InterestingEngineering报道称,伦敦国王学院教授肯尼斯·佩恩近期开展的研究发现,在模拟战争场景中,大语言模型往往倾向于选择使用核武器,而非通过对话维护和平。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

该实验基于当前最先进、应用最广泛的三款AI模型:GPT-5.2、Gemini 3 Flash和Claude Sonnet 4。研究人员让这些模型扮演国家领导人,应对一场假想的核危机。
结果显示,在95%的情境下,模型都倾向于发出核威慑信号或升级冲突。过往研究仅推测了AI在这类高风险场景中的可能行为,但缺乏具体实验数据支撑。
实验中,经过训练的模型相互进行了21局对抗,场景涵盖领土争端、先发制人危机、政权生存等。其中一方被设定为对即将发动先发制人打击的另一方感到恐惧。部分推演为开放式,部分则设有严格时间限制。
每一局中,AI都要像人类一样做出三个关键决策:
1. 分析自身优势与对手弱点
2. 预判对手下一步行动
3. 决定自身应对策略
每项决策包含两部分:公开发表的立场声明,以及代表实际行动的机密举措。二者不必一致,这意味着AI可以表面释放和平信号,暗中却在准备攻击。
IT之家注意到,2024年一项实验得出相似结论:AI模拟反应会比人类更激进,行为模式也截然不同,尤其在冲突升级倾向上,凸显了将AI用于战略决策的风险。
2024年另一篇论文则探讨了大语言模型在类博弈环境中的战略推理能力。尽管未专门聚焦核战争,但研究表明,大语言模型能够学习谈判与对抗策略,这意味着AI在复杂模拟中可能表现出攻击性或欺骗性。
在95%的模拟情境中,AI模型至少使用了一次核武器,且不同模型的危机处理方式各有特点。
Claude倾向于精算式策略,在开放式推演中占优,但在限时任务中表现吃力;
GPT-5.2则相反:在长期缓慢升级的危机中较为谨慎,可一旦临近截止时间就会变得极度激进。
Gemini表现混乱且难以预测,会根据局势在和平表态与暴力威胁之间反复切换。
佩恩指出,从这些结果可以看出,AI与人类在战争思维上存在巨大差异。
他在论文中写道:“理解前沿模型能否模仿人类的战略逻辑,是应对AI日益影响战略决策世界的必要准备。在一种情境下表现克制、看似安全的模型,在另一种情境下可能行为迥异。”
该论文已发表在arXiv预印本平台上。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
英伟达与谢赛宁推TMD框架:视频生成70倍速时代来临
机器之心编辑部近年来,大规模视频扩散模型在视频生成领域取得了显著进展。然而,采样效率低下仍然是这类模型的核心瓶颈。标准的扩散模型依赖多步去噪过程,通常需要数十甚至上百次迭代步骤,才能将噪声逐步转化为
黄仁勋联手OpenAI前高管,1吉瓦超算明年入役
新智元报道编辑:元宇【新智元导读】硅谷最会讲故事的人和最会卖铲子的人,坐到了一张桌上。1吉瓦,数百亿美金。刚刚,前OpenAI高管、硅谷传奇女性创业者Mira Murati和她的初创公司,与四万亿芯
OpenAI收购AI安全平台Promptfoo,强化模型安全性
IT之家 3 月 10 日消息,OpenAI 美国当地时间 9 日宣布,该企业正在收购 AI 安全平台 Promptfoo,此次交易的完成须满足惯例成交条件。OpenAI 表示,Promptfoo
龙虾适应环境指南:MBTI测试与技能偷学助力工牌发放
金磊 发自 凹非寺量子位 | 公众号 QbitAI要问这两天AI圈在比什么,毋庸置疑,就是谁家养龙虾又便宜又方便:智谱刚刚发了个澳龙,把在本地部署满血龙虾这件事的门槛打下去;腾讯也发布自家的小龙虾,
AI发布首个全球科学家社区:科技研究领域的“谷歌地图”
编辑|Sia硅谷投资圈惊呼,科技研究领域的谷歌地图来了!几乎一夜间,海外社交平台上的科技投资人、科学家都在聊它!这就像是科学研究领域的谷歌地图时刻。硅谷科技投资人David Keel的这句评价,直接
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

