当你看到AI瞬间生成一份排版精美、逻辑清晰的代码或文档时,是否会下意识地选择直接信任?大模型公司Anthropic近日发布了一项名为“AI流利度指数”的研究报告。该研究通过分析大量匿名对话样本后发现了一个值得警惕的现象:AI生成的结果外观越“精致”,用户进行事实核查的意愿就越低。
报告指出,当AI产出如小型应用、网页代码或格式化文档等“人工制品”时,用户的批判性参与度会出现显著下滑。在这类高质量视觉产出的场景下,用户的事实核查行为、对论证过程的质疑以及对缺失背景的警觉性均有所降低。这种“精美即正确”的心理错觉,正成为人类有效使用AI的隐形障碍。
然而,研究也揭示了“高效选手”的共性。数据显示,大部分高质量对话都经历了反复的迭代与打磨。那些愿意通过多轮追问来引导AI的用户,发现逻辑漏洞和识别背景缺失的能力均显著高于普通用户。
目前,Anthropic建议用户在面对AI产出时应保持核心习惯:将首次回答视为“草稿”而非终稿、对看似完美的输出保持怀疑,并在对话之初就明确合作规则。真正的AI胜任力不仅在于指令的编写,更在于人类在“精美输出”面前能否守住审校防线。


