科技巨头若真在意对抗AI垃圾内容,便不会任其泛滥

发布时间:2026-02-24 01:01

2025年底,Instagram负责人Adam Mosseri对AI的泛滥表达了担忧,认为“真实性正变得无限可复制”。他提出,解决方案在于为真实媒体建立标签系统,例如让相机厂商在拍摄时对图像进行加密签名,以建立可追溯的信任链。

好消息是,Mosseri所描述的方案已存在,即名为C2PA(内容来源与真实性联盟)的标准。该标准由Adobe、英特尔、微软等公司于2021年创立,旨在通过为图像、视频和音频附加不可见的元数据,来验证内容的创建者、制作方式、时间以及是否使用过AI。Meta于2024年加入了C2PA指导委员会,称理解数字内容对维护生态系统健康“至关重要”。

然而,坏消息是,尽管Instagram已在使用C2PA,但其实际效果甚微。AI模仿现实的能力日益增强,能够复制舞蹈趋势、照片拍摄,甚至制造不存在的艺术家和网红,这威胁到社交媒体围绕内容创作者建立的文化与商业模式。更令人担忧的是,AI还可能被用于快速传播关于重要事件的错误信息。

尽管C2PA得到了微软、Meta、谷歌、OpenAI、TikTok等众多科技巨头的支持,但它显然未能有效保护人们免受AI垃圾内容或误导性深度伪造的侵害。即使更多合成内容嵌入了C2PA信息,普通用户仍需在浏览网络内容时手动寻找这些认证标记,而许多人甚至不知道C2PA的存在。这似乎让AI提供商得以借此与问题保持距离,同时继续推进其生成式AI工具的研发。

基于来源的解决方案存在缺陷。首先,媒体创作和托管每个环节的所有参与者都需要加入,这几乎难以实现。例如,C2PA在相机厂商中的采用进展缓慢,主要限于新型号。此外,来源元数据本身也很脆弱,容易被无意或故意移除。一些主要平台在可靠标记应携带C2PA元数据的内容方面仍然失败,而主动AI标签的呈现也不一致且难以发现。

现状表明,科技公司在推广认证标准的同时,仍在全力开发生成式AI工具,这让人感觉认证更像是一种替代实际行动的方案,而非真正的解决方案。

客服微信
客服微信