随着生成式人工智能技术的快速发展,社交媒体上的AI生成内容日益普遍,给用户辨别信息真伪带来了巨大挑战。美媒CNET的一项调查揭示了美国成年人对此的认知与应对现状。
调查发现,绝大多数美国成年受访者表示曾在社交平台上看到过AI生成的图片或视频。然而,仅有少数比例的受访者“认为”自己能够准确分辨真实内容与AI作品之间的差异。这凸显了AI生成内容在辨识上的难度。
在具体的识别方法上,多数受访者倾向于通过反复观察画面细节进行“肉眼鉴别”。部分人会选择通过反向图片搜索来核查来源,少数人会借助专业的深度伪造检测工具或网站,还有极少数人则采取默认存疑的态度。
面对真假难辨的局面,超过半数的受访者建议应对AI生成内容进行更明确的标签标识。另有相当一部分人主张在社交媒体上采取更严格的管控措施。仅有少数受访者认为AI生成的视频具有信息价值或娱乐性。
调查还显示,大部分美国成年人会采取某种方式来判断视频真伪,但仍有相当比例的群体,尤其是特定年龄段的用户,并不会主动验证内容的真实性,这意味着虚假信息在这部分用户中可能更容易传播。
随着AI生成模型能力的持续提升,过去一些用于识别AI内容的技巧已逐渐失效,公众对内容真实性的判断面临前所未有的考验。该调查结果进一步强调了平台方在治理AI虚假内容、提升信息透明度方面的重要性与紧迫性。


