随着组织快速变革,几年前还行之有效的安全模型如今正承受巨大压力。进入2026年,许多安全团队面临着更庞大、更复杂的风险环境。这主要由人工智能的快速采用、自动化程度的提高以及向云和协作平台的持续转移所驱动。同时,攻击者更容易获得网络钓鱼即服务等工具,使得即使是非技术型犯罪分子也能发起大规模攻击活动。
这些底层挑战并非新问题。安全责任归属不一致、跨系统控制措施不均衡、安全措施在交付周期后期才仓促添加等问题依然存在,只是如今它们往往出现得更快、传播得更广、影响也更大。
随着企业大规模采用人工智能,这显然已不仅仅是另一个威胁类别。AI代表了风险管理的一个根本转折点。它引入了双重风险:对内,员工可能在未完全理解信息如何存储或保护的情况下,向AI工具过度分享敏感数据;对外,网络犯罪分子正利用AI生成深度伪造内容、冒充可信个人,并以前所未有的速度和规模发起攻击。
尽管几乎所有组织都报告已采取措施应对AI风险,但许多员工认为获得批准工具的速度太慢、限制过多或管理不一致。与此同时,未经批准的使用或“影子AI”正变得越来越普遍。员工可能已经在使用完全处于组织监督之外的大型语言模型个人账户,从而创造了实际上不可见的风险向量。那些让员工利用AI提高生产力的行为,若没有实时防护措施,可能迅速转变为责任。
历史上,组织主要通过意识培训和教导员工识别威胁、避免错误来处理与人相关的安全风险。这种方法至关重要,因为研究表明源于人为因素的网络安全事件大幅增加;然而,仅靠这种方法已不再足够。
当风险几乎存在于员工工作和沟通的每个角落时,以边界为中心的防御和年度培训周期在结构上就显得不足。这是因为当今的工作场所不再仅仅由人组成。AI智能体正越来越多地嵌入关键工作流程,与员工并肩工作并处理敏感数据。虽然纯粹的人力攻击向量仍然存在,但组织并未对AI智能体应用与员工相同级别的行为风险培训。结果就是出现了一种新的、很大程度上未被管理的风险。
在这种日益暴露的风险之下,是组织与其员工之间更深层的脱节。近一半的员工不认为他们处理的数据属于组织。模糊的所有权导致围绕数据共享、存储和AI使用出现了个人化的规则制定。识别这种理解上的差距使一件事变得清晰:文化、激励措施和工具对行为的影响远比政策文件本身更有效。人力风险与其说是规则问题,不如说是清晰度问题。
一项揭示性的新研究发现,全球范围内有相当比例的组织曾对遭受网络钓鱼攻击的员工进行过纪律处分。这种普遍的惩罚性安全方法可能会进一步加剧问题。



