人工智能初创公司Anthropic近期宣布对其长期坚持的“安全护栏”政策进行重大调整。该公司曾以“安全卫士”自居,并发布《负责任扩展政策》,承诺在AI模型达到特定危险阈值时推迟研发。然而,最新的政策更新显示,如果公司在竞争中不具备显著领先优势,将不再执行推迟研发的承诺。这一转变被业内视为一次剧烈的政策转向。
分析指出,此举主要源于残酷的商业竞争压力。Anthropic坦言,当前的政策环境更优先考虑AI竞争力与经济增长,而全面的安全监管尚未形成实质势头。在与主要竞争对手争夺行业主导权的过程中,公司认为过度保守的安全策略可能导致其在技术竞赛中落后。为了向投资者展示商业潜力,公司正加速推进模型上市进程。
这种“速度优先”的战略转变已引发内部震荡。有资深安全研究员因此离职,并公开警告AI的失控研发可能带来风险。这一事件折射出AI初创企业在“技术向善”的理想与“生存竞争”的现实之间所面临的深刻矛盾。Anthropic的政策调整,标志着即使是将“人类福祉”置于首位的公司,也在商业扩张压力下开始重新权衡安全与发展的优先级。


