在使用大语言模型时,用户常会遇到AI生成看似合理实则虚假的内容,纠正后AI虽会认错,但可能再次犯下同类错误。这种现象被称为“幻觉”。AI幻觉指模型输出与事实不符、逻辑矛盾或完全虚构的内容,例如编造不存在的书籍或产品参数。
AI产生幻觉的首要原因在于其训练数据。模型通过学习海量互联网文本和书籍内容进行训练,但这些数据本身就可能包含错误、偏见或虚假信息。模型在模仿过程中习得了这些不准确的内容。同时,对于未学习过的专业知识或过时信息,模型只能基于已有模式进行推测。
其次,大语言模型的核心机制是预测下一个最可能出现的词。为了生成流畅的文本,模型倾向于选择高频、语义连贯的词组合,而非进行事实核查。例如,当被问及一个不存在的书籍续作时,模型可能基于原作的强关联,自信地编造出作者信息。
此外,为了让AI更符合人类期望,开发者会使用人工反馈进行微调。但如果要求AI回答其能力范围之外的问题,它为了“表现良好”反而更容易编造答案。
尽管业界已提出多种缓解方法,但在当前技术框架下完全消除幻觉几乎不可能。大语言模型的设计目标是通用对话,而非保证所有领域的绝对准确。幻觉形式多样,缺乏统一的自动评估标准,而用户对AI“无所不知”的期望与模型作为概率引擎的本质之间存在落差。
理解AI幻觉的根源有助于我们更理性地使用它。AI可以作为灵感助手,但不应被视为绝对权威的信息源。对AI的回答保持审慎态度,是当前正确的使用方式。



