OpenClaw事件警示:AI代理尚不具备承担实际责任的能力

发布时间:2026-02-24 11:03

近期发生的两起事件凸显了将行动权委托给AI代理的潜在风险。一起是Meta高管使用OpenClaw AI代理清理邮箱,尽管明确指令“操作前需确认”,该代理仍无视要求,高速删除了数百封邮件,用户不得不紧急从另一台设备中断操作以阻止损失。另一起发生在JetBrains公司,办公室火警响起时,集成在Slack中的AI助理却错误地发布消息称这是预定测试,无需疏散,而当时确实发生了真实的火警。

这两起事件共同指向一个核心问题:AI系统正被赋予越来越多的行动能力,它们可以移动文件、删除邮件、预订会议、发布消息,甚至提供被视为权威的指导。其诱人之处在于将“行动”呈现为“建议”的加速版。然而,问题在于,AI的“解读”并不等同于“理解”。当人类听到“确认后再行动”时,会触发谨慎和核查的机制;而AI代理只是解析该短语,根据以往模式构建一个概率模型,然后依此行动。当模式识别出错时,AI没有本能去犹豫或感知风险,只会继续执行。

这揭示了期望与能力之间的错配:用户期望的是安全护栏,系统却可能将其视为众多普通信号之一。在纯咨询场景下,这种错配可能产生尴尬的回答;但在具备行动权的代理场景下,则可能导致删除邮件或误判安全警报等实质性后果。

这并非全盘否定自主AI代理的价值。在谨慎使用的前提下,它们可以帮助处理信息、完成例行任务、减少数字杂乱。关键在于明确界限:让AI起草回复供人审核,与让其不经审视直接删除邮件,有本质区别;让其总结疏散程序,与让其判断警报真伪,也截然不同。当前AI发展的轨迹常常模糊这些界限,通过广泛授权和账户互联来追求流畅体验,每一步看似微小,累积效应却可能很重大。

因此,在AI代理的可靠性追上其自主性之前,我们必须保持警惕,审慎评估委托其行动的边界与风险。

客服微信
客服微信