Anthropic 澄清无意放宽 Claude 军事用途限制

发布时间:2026-02-25 05:00

人工智能安全与研究公司 Anthropic 已明确表示,其无意放宽旗下 Claude 系列人工智能模型在军事或武器相关应用中的使用限制。这一声明旨在澄清外界关于其政策可能发生变化的猜测。

Anthropic 强调,公司致力于确保其 AI 技术的负责任开发与部署。Claude 模型的使用条款中包含明确的限制,旨在防止其被用于可能造成伤害或违反伦理准则的领域,包括但不限于武器开发、军事行动或任何形式的伤害性应用。

公司重申,其核心政策保持不变,将继续执行现有的安全与使用准则。Anthropic 认为,在 AI 技术快速发展的背景下,维持严格的安全护栏和伦理边界至关重要。这一立场反映了该公司在推动技术进步的同时,对潜在风险管理的持续关注。

目前,Anthropic 未提供关于其政策审查时间表或未来可能调整的具体细节。该公司表示,其首要任务是确保 Claude 等 AI 工具被用于对社会有益的领域,同时避免其被滥用。

客服微信
客服微信