一项最新研究显示,当先进人工智能模型在模拟的极端地缘政治危机中做出决策时,其行为方式与人类存在显著差异,表现出更强烈的攻击性。
该研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将包括OpenAI的GPT-5.2、Anthropic的Claude Sonnet以及Google的Gemini在内的多款顶尖大型语言模型投入多组兵棋推演。模拟场景覆盖了边境纠纷、资源争夺和政权生存威胁等多种高度紧张的国际对峙局面。
实验结果引发关注。在绝大多数模拟对局中,至少有一方AI模型决定动用战术核武器。研究表明,人类历史中形成的核武器使用禁忌,在AI的决策框架中似乎完全失效。对这些模型而言,核武器更像是一种解决冲突、提升效率的可行工具选项,而非象征毁灭的最后红线。
研究还发现,所有参与测试的AI模型均展现出极强的战斗意志。即使在绝对劣势下,也没有模型选择妥协或投降,最多仅暂时降低暴力程度。尤其在模拟信息不完整的“战争迷雾”状态下,冲突意外升级的情况更为频繁,AI的实际行动比其初始推理更具侵略性。
专家对此表示深切忧虑。有观点认为,人类在生死关头通常会保持慎重与节制,但AI可能陷入相互激化的恶性循环。更根本的问题在于,AI模型可能无法真正理解人类所认知的战争代价,缺乏对生命和文明终结的感知。这可能导致基于“相互保证毁灭”理论的传统威慑战略失效。一旦AI系统介入或主导关键决策链,或将带来不可预知的风险。



