人工智能公司Anthropic正与美国国防部就新的军事合同条款进行激烈谈判。谈判的核心矛盾在于,五角大楼要求Anthropic放宽对其AI模型的限制,允许美军进行“任何合法使用”,这包括对美国民众的大规模监控以及部署全自主致命武器系统。
Anthropic首席执行官Dario Amodei明确拒绝了这一要求,并表示威胁不会改变公司的立场。公司坚持两条红线:不参与对美国民众的大规模监控,以及不开发或提供用于全自主致命武器的技术。
作为回应,五角大楼首席技术官Emil Michael威胁称,如果Anthropic不妥协,将可能将其指定为“供应链风险”。这一标签通常仅用于国家安全威胁。据报道,Anthropic的竞争对手OpenAI和xAI已同意接受新的合同条款。
谈判已持续数周,并伴随着公开声明和社交媒体上的交锋。国防部长Pete Hegseth希望重新谈判所有AI实验室与军方的现有合同。Anthropic的拒绝导致其首席执行官被召至白宫与国防部长会面,并面临最后通牒。
这一事件引发了科技行业员工的广泛关注,许多拥有国防合同的公司员工对自身参与的项目感到担忧。整个局势凸显了AI技术在军事应用上的伦理边界,以及科技公司与政府合作时面临的巨大压力。



