人工智能公司Anthropic在与美国国防部的合同谈判中,面临关键挑战。公司首席执行官Dario Amodei透露,谈判在核心安全条款上进展甚微,特别是在如何防止其AI模型Claude被用于大规模国内监控或开发全自主武器系统方面。
Anthropic作为知名AI实验室,其开发的Claude系列模型以强大的对话和推理能力著称。与国防机构的潜在合作,引发了关于AI技术军事化及伦理应用的广泛关注。公司方面强调,确保其技术不被用于有害目的是谈判的重中之重。
目前,双方在设定明确的技术使用限制和有效的监督机制上,尚未达成共识。这一僵局凸显了前沿AI开发商与政府机构合作时,在技术部署的伦理边界与安全护栏上存在的普遍分歧。谈判的后续进展,将影响AI技术在敏感领域的应用前景与监管范式。


