五角大楼与Anthropic就AI军事应用限制产生分歧

发布时间:2026-02-27 07:33

本期《恐怖谷》节目深入探讨了人工智能公司Anthropic与美国国防部之间持续发酵的分歧。事件起因于Anthropic去年夏季获得了一份国防部合同,但双方在人工智能技术的军事应用上存在根本性分歧。Anthropic对其技术的部署设置了严格限制,例如禁止用于国内监控或完全自主武器系统。公司主张机器不应拥有完全自主的决策权,尤其是涉及致命行动时需保留人类监督。这一立场引发了国防部部分官员的不满。据报道,国防部长近期与Anthropic首席执行官会面,并要求公司在限期内解除使用限制,否则可能面临合同取消。值得注意的是,国防部已与其他多家AI公司合作,且部分公司并无类似限制条款,这使得此次针对Anthropic的强硬态度显得尤为突出。节目分析认为,此举可能带有一定的表演性质,旨在传递某种信号。

节目同时讨论了硅谷近期流行的“代理式”与“拟态式”思维模式分类,这已成为评估个人在AI时代适应性的新标尺。此外,主持人们还总结了近期国情咨文演讲的关键要点,并对一条为现代互联网奠定基础的海底电缆退役进行了回顾。整期节目从多角度解析了科技、政策与商业交叉领域的动态与争议。

五角大楼与Anthropic因AI军事使用限制陷争端,或将其列为供应链风险

发布时间:2026-02-17 03:31

根据多方报道,美国国防部与人工智能公司Anthropic之间的紧张关系正在升级。争端核心在于Anthropic对其AI模型(如Claude)的使用设置了限制条款,特别是反对将其用于对美国公民的大规模监控,以及开发无需人类干预即可开火的自主武器系统。

作为回应,五角大楼高级官员表示,正考虑将Anthropic指定为“供应链风险”。若该决定最终落地,所有与美国军方有业务往来的承包商都将被要求切断与Anthropic的联系。有分析指出,此举可能源于国防部对Anthropic坚持设置使用护栏的不满,认为其条款阻碍了部分军事应用。

舆论对此反应不一。部分观点支持Anthropic的伦理立场,认为其在AI的双重用途问题上展现了责任感;另有批评声音则认为,其他主要AI公司似乎并未采取类似限制,五角大楼的威胁可能带有产业竞争色彩。此外,有报道提及Anthropic的AI模型已被用于某项军事行动,这进一步凸显了AI技术在军事领域应用的现实与伴随的伦理争议。目前,双方谈判据称已陷入僵局。

客服微信
客服微信