AI安全原则遭遇军事需求,Anthropic或失国防合同

发布时间:2026-02-21 01:31

当Anthropic去年成为首家获美国政府批准用于机密及军事用途的主要AI公司时,此事并未引起广泛关注。然而,近期局势突变:美国国防部正在重新评估与该公司的关系,包括一项价值可观的合同。原因在于,这家以安全为导向的AI公司反对参与某些致命的军事行动。

五角大楼发言人证实了双方的紧张关系,强调合作伙伴必须愿意帮助美军在任何战斗中取胜,这关乎部队和美国人民的安全。此举也被视为对其他AI公司的明确信号,这些公司目前正为获得更高级别的安全许可而努力。

矛盾的核心在于,Anthropic公开支持AI监管,并为其模型设定了严格的安全护栏,明确禁止将AI用于生产或设计武器,特别是自主武器和政府的AI监控。公司CEO曾明确表示不希望其AI技术涉足这些领域。

然而,国防部技术官员近期表态称,政府不会容忍AI公司限制军方在武器系统中使用AI的方式。这直接挑战了AI安全的基本原则。有观点认为,有效的国家安全需要最创新公司提供的最尖端技术,而当前许多科技公司已转变为积极的潜在军事承包商。

分析指出,当面对复杂对手时,AI军备竞赛可能全面展开。届时,政府对于AI公司坚持在“合法使用”上划出界限或进行法律区分的做法,可能缺乏耐心。五角大楼的声明已明确表示:若AI公司希望与国防部合作,就必须承诺不惜一切代价争取胜利。

这种思维模式可能将创建安全AI的努力推向错误方向。一方面致力于创造不伤害人类的AI,另一方面又开发用于致命武力的版本,这本身是矛盾的。更令人担忧的是,关于建立国际机构来监督和限制AI有害使用的讨论已日渐式微。如今,AI已成为未来战争的既定组成部分,而其自身的未来发展方向,也因此蒙上了更深的阴影。

客服微信
客服微信