MIT研究揭示顶尖AI聊天机器人存在歧视弱势群体现象

发布时间:2026-02-24 14:32

大型语言模型常被视为推动信息普惠的革命性工具,但麻省理工学院建设性传播中心的最新研究揭示了其令人担忧的另一面:这些先进的AI系统在面对本应最需要帮助的弱势用户时,却表现出系统性性能下降。

该研究在人工智能促进协会年会上发布,针对OpenAI的GPT-4、Anthropic的Claude 3 Opus及Meta的Llama 3等顶尖模型进行了测试。研究人员在提问前附加了不同教育背景、英语熟练度和国籍的用户信息,以此评估模型的表现差异。

结果显示,当用户的教育水平较低或英语熟练度不高时,模型回答的准确率会显著降低。若用户同时具备这两个特征,其受到的负面影响更为严重。研究还发现,模型在处理不同群体查询时存在明显差异。例如,某模型对弱势用户群体的提问拒绝回答率远高于对照组。

更值得关注的是,在某些拒绝回答的情况下,模型使用了居高临下甚至带有嘲讽意味的语气,有时还会刻意模仿不规范的英语表达。此外,研究指出,对于来自特定国家且教育程度较低的用户,模型在回答某些话题时会刻意隐瞒真实信息,而对其他用户群体却能提供正确答案。

研究人员警告,随着AI个性化功能的普及,这类固有的社会认知偏见可能会加剧现有的信息不平等。模型可能在不经意间将错误信息传递给辨别能力最弱的群体,从而造成更深层次的数字鸿沟。

客服微信
客服微信