微软近日向《麻省理工科技评论》分享了一份关于如何证明网络内容真实性的技术蓝图,旨在应对日益严重的“AI造假”和Deepfake深度伪造问题。微软内部的AI安全研究团队评估了现有数字篡改记录方法,并提出了一套可供行业采用的技术标准。
这套鉴别标准由多种溯源手法组合而成。微软参照艺术品真伪鉴别的思路,例如通过记录来源与流转历史、添加机器可读的隐水印、生成数字签名等方式,来验证数字内容的完整性。研究团队模拟了元数据被删除、内容被修改等多种现实场景,评估了多种溯源手法的组合效果,以寻求能提供稳定鉴别结果的方案。
微软首席科学官表示,这项研究部分受到相关立法推动,并视其为一种行业自我监督,同时也有助于提升公司形象。但他也指出,微软并未承诺会在自家平台全面采用这些方案。这些工具存在固有局限,它们无法判断内容本身的“真实性”,只能检测内容是否“被篡改”。
数字取证专家对此评价称,如果科技行业广泛采用此类方案,将能显著增加蓄意误导公众的难度。专家同时指出,这并不能完全消除虚假信息,但对于希望了解真相的多数公众而言,这是一种有效工具。
值得注意的是,当前科技行业对于普遍存在的AI生成内容尚未采取强有力的统一行动。此前有审计发现,部分主流平台对AI生成内容的标注率并不理想。有观点认为,如果平台认为标注会影响流量,则可能缺乏实施动力。微软此次提出的组合方案,为行业建立更统一的内容溯源与认证标准提供了技术参考。


