OpenAI已向美国国防部(五角大楼)明确表达了其立场,认为竞争对手Anthropic不应被指定为供应链风险。这一表态是在该公司与美国国防部达成一项AI部署协议的背景下作出的。
OpenAI为其与国防部达成的协议进行了辩护。该公司声称,这份关于机密AI部署的协议包含了比以往任何类似协议(包括Anthropic的协议)都更多的安全护栏和限制措施。协议中明确包含了禁止将OpenAI技术用于大规模国内监控,以及禁止在法律法规或国防部政策要求人类控制的任何情况下,使用其技术独立指挥自主武器系统。
然而,该协议的具体条款也引发了外界的讨论和审视。有观点指出,协议中对自主武器的限制条款存在依赖现行法规和政策的局限性。同时,协议中“用于所有合法目的”的表述范围,以及技术部署的具体细节(如是否仅限于云端、是否涉及API输出至野战单位等),也受到了一些关注和疑问。
这一事件凸显了AI公司与美国政府,特别是国防部门合作时所面临的复杂平衡:一方面需要推进技术应用,另一方面则需应对伦理、安全及商业竞争等多重挑战。OpenAI此次的公开表态,既涉及对竞争对手的立场,也关乎其自身商业协议的安全性与合规性辩护。



