人工智能企业与美国军方的关系正进入紧张阶段。以“人工智能安全”为核心理念的初创公司Anthropic,成为这场风波的焦点。据报道,美国国防部正威胁终止与Anthropic价值2亿美元的合作项目。双方的核心分歧在于私营企业应在多大程度上管控军方对其人工智能软件的使用方式。美国国防部一直在向多家主要人工智能公司施压,要求允许军方将其模型用于“所有合法用途”,这实质上意味着取消常规的安全限制。这些限制原本禁止将人工智能用于武器研发、情报搜集或战场作战等敏感领域。报道显示,在几家主要公司中,Anthropic的态度最为强硬。该公司在两个具体问题上划下明确红线:禁止使用其Claude模型对美国民众进行大规模监控,以及禁止用于研发完全自主武器系统。在一场具体的军事行动后,双方的矛盾彻底爆发。据报道,美国国防部在该行动中使用了Claude模型,这引发了Anthropic内部的质疑。当Anthropic询问其技术是否被用于涉及实战交火的行动时,引发了军方官员的不满。军方认为,在实战行动中进行事后审查不具备可行性。这场争端凸显了双方巨大的文化冲突。有官员称,Anthropic是所有人工智能实验室中最“意识形态化”的一家,其内部执行严格的使用政策。然而,美国国防部也陷入两难,因为在某些政府专项与涉密应用场景中,Claude模型的表现仍被认为优于竞品。若双方无法达成一致,美国国防部暗示可能将Anthropic列为“供应链风险方”,并逐步寻找替代方案。Anthropic方面则坚称致力于维护国家安全,并强调自己是首家将模型接入涉密网络的人工智能企业。目前,双方仍在沟通之中。


