Anthropic因竞争压力放弃核心安全承诺,调整负责任扩展政策

发布时间:2026-02-25 12:03

美国AI创业公司Anthropic宣布对其旗舰安全政策“负责任扩展政策”进行重大调整,放弃了此前的一项核心安全承诺。该公司曾自诩为最注重安全的顶级AI研究实验室之一。

Anthropic此前承诺,除非能提前保证拥有足够的安全措施,否则绝不训练AI系统。这一承诺是其“负责任扩展政策”的核心支柱,被公司高层长期用作其负责任、能抵御市场诱惑的证明。然而,该公司近期决定对政策进行彻底改革,放弃了“若无法提前保证适当风险缓解措施就不发布AI模型”的原有承诺。

Anthropic首席科学官解释称,在AI快速发展和竞争对手积极推进的背景下,公司认为单方面停止训练模型并无帮助。新版政策调整为:承诺在AI安全风险方面更加透明,包括披露自有模型在安全测试中的表现;承诺在安全投入上达到或超越竞争对手水平;同时承诺,若公司成为AI竞赛领跑者且认为灾难性风险可能性很大,将“推迟”开发进程。总体而言,新政策使Anthropic在安全方面受到的约束大幅减少。

公司表示,此次调整是基于AI行业发展速度以及联邦层面缺乏相关法规而进行的更新,旨在帮助公司在不均衡的政策环境中与多家竞争对手抗衡。发言人强调,政策调整与同美国国防部的合同谈判无关,并称公司仍致力于遵循行业领先的安全标准。目前,Anthropic正面临来自OpenAI、xAI及谷歌等公司的激烈竞争。

客服微信
客服微信