MIT研究揭示AI智能体能力与安全披露失衡

发布时间:2026-02-20 09:31

当前,AI智能体正迎来发展热潮。这些系统能够规划、编写代码、浏览网络,并在极少或无需人工监督的情况下执行多步骤任务,甚至承诺管理用户工作流或协调桌面工具。其核心吸引力在于能够主动代表用户采取行动。

然而,麻省理工学院(MIT)的研究团队在编录了67个已部署的智能体系统后,发现了令人不安的现象:开发者急于描述其智能体的功能,却极不情愿说明这些智能体是否安全。研究指出,领先的AI开发者和初创公司正越来越多地部署能够规划并执行复杂任务的智能体AI系统,但目前缺乏记录这些系统安全特性的结构化框架。

这种差距在数据中体现明显:大部分被索引的智能体提供了文档和代码,但只有少数披露了正式的安全政策,报告外部安全评估的则更少。研究强调,开发者在宣扬智能体系统的能力和实际应用时非常迅速,但在提供有关安全与风险的信息时却非常有限,导致了一种不平衡的透明度。

研究对“AI智能体”有明确的界定标准:系统必须在目标不明确的情况下运作,能够随时间推移追求目标,并且能够在有限人工干预的情况下采取影响环境的行动。这些系统能自行决定中间步骤,将宽泛指令分解为子任务、使用工具、规划、完成并迭代。正是这种自主性使其强大,也同时提高了风险。

当模型仅生成文本时,其失败通常局限于单次输出。但当AI智能体能够访问文件、发送电子邮件、进行购买或修改文档时,错误和漏洞可能造成损害并在多个步骤中传播。然而,研究发现大多数开发者并未公开详细说明他们如何测试这些场景。

研究中最突出的模式并非深藏于表格中,而是在全文反复出现:开发者乐于分享演示、基准测试和AI智能体的可用性,但在分享安全评估、内部测试程序或第三方风险审计方面却远不一致。随着智能体从原型发展为集成到真实工作流程中的数字执行者,这种不平衡变得更加重要。许多被索引的系统在软件工程和计算机使用等领域运行,这些环境常涉及敏感数据和重要控制权。

MIT的研究并未断言所有智能体AI都不安全,但它表明,随着自主性的提高,关于安全的结构化透明度并未同步跟上。技术正在加速发展,但至少从公开信息来看,防护栏仍然更难被看见。

客服微信
客服微信