Anthropic因安全承诺与政府冲突,暴露AI行业自我监管困境

发布时间:2026-03-01 08:32

一则突发新闻显示,美国政府以国家安全法律为由,切断了与AI公司Anthropic的联系,并将其列入禁止与国防部开展业务的黑名单。起因是Anthropic的创始人Dario Amodei拒绝允许其技术被用于对美国公民的大规模监控,或用于无需人类输入即可自主选择并击杀目标的武装无人机。此举导致该公司可能失去一份价值不菲的合同,并被禁止与其他国防承包商合作。Anthropic表示将在法庭上挑战这一决定,称相关法律依据站不住脚。

MIT教授、未来生命研究所创始人Max Tegmark对此事的看法直指核心:Anthropic及其竞争对手们已经为自己种下了困境的种子。他认为问题根源不在于五角大楼,而在于多年前整个行业共同做出的一个选择:抵制具有约束力的监管。Anthropic、OpenAI、Google DeepMind等公司长期承诺进行负责任的自我治理,但Tegmark指出,在缺乏规则的情况下,这些承诺难以保护它们。

Tegmark进一步批评了行业的矛盾性。Anthropic虽以安全为首要原则立身,却曾与国防和情报机构合作。他尖锐地指出,这些公司都曾大谈重视安全,却无一公开支持像其他行业那样的强制性安全监管。相反,它们持续游说反对AI监管,声称“相信我们,我们会自我监管”。其结果是,美国目前对AI系统的监管甚至比对三明治店的监管还要宽松。

更关键的是,这些公司近期接连背弃了自己的安全承诺。例如,Anthropic在本周早些时候放弃了其核心安全誓言——即在不确信会造成伤害之前,不发布更强大的AI系统。OpenAI则从其使命宣言中删除了“安全”一词。Tegmark总结道,这条道路表明,即使初衷良好,缺乏外部约束的自我监管最终可能导致公司陷入自身设定的陷阱之中。

客服微信
客服微信