过去两周,Anthropic首席执行官达里奥·阿莫代伊与国防部长皮特·赫格塞思就军方使用人工智能问题发生公开冲突。Anthropic拒绝允许其AI模型被用于对美国人的大规模监控,或用于无需人类输入即可实施打击的完全自主武器。与此同时,赫格塞思部长则认为,国防部不应受供应商规则的约束,主张任何对该技术的“合法使用”都应被允许。阿莫代伊已公开表示Anthropic不会让步,尽管其公司可能因此被列为供应链风险。
这场冲突的核心在于谁应控制强大的AI系统——是构建它们的公司,还是想要部署它们的政府。Anthropic的担忧集中于两点:一是其模型被用于大规模监控,通过AI实现自动化大规模模式识别、跨数据集实体解析、预测性风险评分和持续行为分析,可能将合法监控提升至令人担忧的程度;二是被用于无人类在环决策的自主武器系统,担心能力不足的AI掌管武器可能导致目标误识别、未经授权的冲突升级或无法逆转的致命决策。
五角大楼的立场是,它应能为任何其认为必要的合法用途部署Anthropic的技术,而不应受该公司在自主武器或监控等问题上的内部政策限制。其首席发言人表示,国防部对进行大规模国内监控或部署自主武器没有兴趣,但要求允许军方将Anthropic的模型用于所有合法目的,并警告否则将终止合作并将该公司列为供应链风险。
目前,五角大楼已威胁要将Anthropic列为“供应链风险”,或动用《国防生产法》迫使该公司根据军方需求调整其模型。这场对峙凸显了AI技术民用开发与国家安全需求之间的根本张力,其结局可能为未来政府与科技公司在强大AI使用上的关系设定先例。



