CNET调查:AI内容泛滥社交媒体,仅少数用户自信能识别

发布时间:2026-02-17 21:32

AI生成内容已渗透各大社交平台,从空洞的图像到怪异的视频,再到看似通顺的文本。一项CNET独家调查显示,绝大多数使用社交媒体的美国成年人认为他们遇到过由AI创建或修改的内容,但仅有少数人表示有信心区分真实照片、视频与AI生成内容。这构成了一个严峻问题。

人们正通过多种方式应对AI内容。部分解决方案聚焦于为AI生成内容提供更清晰的标签,因为仅凭肉眼判断已越来越不可靠。在使用社交媒体的受访者中,半数人认为我们需要更好的在线AI标签。另有一部分人认为应完全禁止社交媒体上的AI生成内容。仅少数受访者表示他们认为AI内容有用、信息丰富或有趣。

在AI时代,眼见不再为实。先进的AI工具能生成高度逼真的媒体内容,因此部分用户对自身辨别能力缺乏信心并不令人意外。年长用户群体的信心水平相对更低。若缺乏对AI的足够了解或接触,人们很可能对准确识别AI内容感到不确定。

AI模仿现实的能力使得验证线上内容变得更为重要。近四分之三的美国成年人表示,当内容引起怀疑时,他们会采取某种形式的行动来判断其真伪。最普遍的方法是仔细检查图像和视频中的视觉线索或人工痕迹。但随着AI模型快速改进,过去依赖的某些明显错误标志已逐渐消失,这使得辨别真伪需要付出更多努力。

随着AI的视觉指示器减少,其他验证方式的重要性日益凸显。另外两种常见方法是检查标签或披露声明,以及在新闻网站或通过反向图片搜索等方式在线搜索相关内容。但仍有相当一部分用户不会采取任何行动来验证所见内容的真实性,这在部分年龄段用户中尤为突出。

标签化是应对AI内容冲击的一个主要着力点。这依赖于社交媒体用户主动披露其帖子借助了AI生成,或由平台在后台进行操作,但后者实施存在难度,导致结果参差不齐。这或许是超半数美国成年人认为需要对AI内容(包括深度伪造)进行更好标注的原因。支持加强标签的呼声在年轻用户群体中最为强烈。

其他解决方案旨在控制社交媒体上分享的AI内容数量。所有主要平台目前都允许AI生成内容存在,前提是不违反其基本内容准则。但已有平台开始测试工具,以限制信息流中出现的AI生成内容数量,旨在让用户拥有自主选择权。然而,也有相当一部分受访者认为应完全禁止社交媒体上的AI内容,且不作任何例外。支持对AI内容进行严格监管的比例也高于认为其能提供有意义价值的比例。

防范被AI内容欺骗的最佳策略是保持警惕并相信直觉。如果某些内容显得过于奇怪、完美或不真实,它很可能确实如此。

客服微信
客服微信