Anthropic CEO拒绝美军请求:前沿AI系统可靠性不足,无法用于全自动武器

发布时间:2026-02-27 23:02

Anthropic首席执行官Dario Amodei公开拒绝了美国国防部(原文称“战争部”)的请求,即允许其Claude AI模型用于大规模监控以及更具争议性的“全自动武器”领域。Amodei在解释决定的信中明确指出:“目前,前沿AI系统根本不够可靠,无法驱动全自动武器。”他补充道,在没有适当监督的情况下,无法依赖全自动武器行使经过高度训练的专业部队每日展现的关键判断力。

此次拒绝源于美国国防部的要求与Anthropic自定的“宪法”原则直接冲突。该宪法是一套关于其AI模型使用和行为的准则与安全限制,包含“广泛安全”和“广泛道德”等原则。国防部的要求实质上希望Anthropic移除这些安全护栏。

Amodei强调,他深信利用AI保卫美国及其他民主国家、击败专制对手具有至关重要的意义,并非反对国防或美国政府使用AI。然而,基于当前技术可靠性的考量及公司原则,无法同意该请求。这一立场可能导致公司面临失去相关国防合同的风险。

信中进一步指出,AI驱动的大规模监控对基本自由构成严重且新颖的风险。相关法律尚未跟上AI能力的快速增长。全自动武器一旦开发,可能以人类无法理解的速度和规模进行武装冲突,其滥用和误用的担忧在科技界已酝酿多年。

此次事件凸显了AI能力快速发展与现有管理规则、策略之间的差距,以及将强大AI模型鲁莽应用于监控和战争领域可能带来的未知风险。

客服微信
客服微信