五角大楼与Anthropic就AI参与核决策陷僵局

发布时间:2026-02-27 21:34

据报道,美国军方与人工智能初创公司Anthropic之间的合作因关键问题陷入僵局。双方争议的焦点在于,是否允许Anthropic开发的Claude人工智能模型参与涉及致命武力的军事决策过程,特别是模拟核导弹袭击等相关情境。

这一僵局并非简单的商业分歧,它直接触及了在国防和安全领域部署前沿人工智能技术的根本性安全与伦理边界。当人工智能的应用场景从常规任务扩展到涉及战略武器乃至核威慑的决策支持时,其潜在风险与责任归属变得异常复杂。

当前冲突的升级,反映了军方追求技术优势与AI开发公司坚守安全准则之间的深层矛盾。它提出了一个核心问题:在国家安全这类高风险领域,先进AI系统的决策权限究竟应被划定在何处。这一争议也预示着,未来将尖端AI整合进国家防御体系时,类似的伦理与安全审查或将成为常态。

客服微信
客服微信