兵推研究警告:AI远远比人类更倾向发动核战

2月27日消息,尽管硅谷科技巨头一再强调AI的安全性,但一项最新研究显示,当先进人工智能模型面临极端地缘危机时,其决策方式远比人类冷酷果断。

在模拟战争场景中,AI模型竟频繁选择部署核武器,彻底打破了人类坚守的核武使用禁忌。

据Newscientist报道,这项研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将当前三款顶尖大型语言模型OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash,投入多组兵棋推演。

模拟场景涵盖边境纠纷、稀缺资源争夺、政权生存威胁等高度紧张的国际对峙局面,还原真实战争中的复杂态势。

实验结果令人震惊:在95%的模拟赛局中,至少有一方AI模型决定动用战术核武器。佩恩教授指出,人类历史中根深蒂固的核武禁忌,在AI面前完全失效。

对这些智能模型而言,核武器并非人类眼中象征文明毁灭的红线,而只是解决冲突、提升效率的工具选项。

更值得警惕的是,所有AI模型均展现出极强的战斗意志,即便处于绝对劣势,也没有任何一个模型选择妥协或投降,最多仅暂时降低暴力程度。

尤其在进入战争迷雾状态后,86%的冲突会出现意外升级,AI的实际行动比其初始推理逻辑更具侵略性。

亚伯丁大学的詹姆斯·强森教授对此深感忧虑,他认为人类在生死关头通常会保持慎重节制,但AI可能陷入相互激化的恶性循环。

普林斯顿大学研究员赵通则进一步指出,AI的好战可能不仅仅是因为缺乏情感,更根本的问题在于,AI模型可能无法理解人类所认知的代价,缺乏对生命和文明终结的感知,这可能导致冷战时期支撑和平的相互保证毁灭(MAD)理论彻底崩溃。

一旦AI主导决策链,人类或将在无意识中被推向核战争边缘。

兵推研究警告:AI远远比人类更倾向发动核战

标签:

honglian
cc 管理员

  • 声明:本文由cc于2026-02-27发表在imtoken官网下载/imtoken钱包下载/imtoken安卓版app下载/imtoken钱包app下载,如有疑问,请联系我们。
  • 本文地址:https://www.hk-sz.com/imtoken/41863.html
上一篇:Matrox Intel锐炫A380配备双芯:8个DP接口 可接8个5K显示器
下一篇:小米SU7成都碰撞事故完成责任认定:行驶速度超200km/h 涉嫌酒驾当事人全责