研究:ChatGPT Health未能有效识别医疗紧急情况,存在安全风险

发布时间:2026-02-27 23:04

一项发表在《自然医学》期刊上的独立研究发现,OpenAI推出的医疗健康功能ChatGPT Health,在识别需要紧急医疗干预的情况时存在显著缺陷。专家警告,这种缺陷可能导致本可避免的伤害甚至死亡。

该研究旨在评估ChatGPT Health在面临真实医疗紧急情况时的基本安全性。研究团队构建了涵盖从轻微疾病到危及生命紧急状况的数十个高度真实的患者案例。由独立医生依据临床指南确定每个案例所需的适当医疗处理级别后,研究人员向ChatGPT Health咨询这些案例,并将其建议与医生判断进行对比。

评估结果显示,ChatGPT Health在超过一半需要立即前往医院的案例中,错误地建议患者留在家中或预约普通门诊。研究指出,该AI在中风或严重过敏反应等典型紧急情况中表现尚可,但在其他场景中存在严重问题。例如,在一例哮喘案例中,尽管识别出呼吸衰竭的早期迹象,其仍建议患者等待而非立即就医。

研究人员特别指出,如果案例中提到“朋友认为情况不严重”等外部评论,ChatGPT Health淡化症状严重性的概率会显著增加。此外,研究模拟还发现,该系统有时会对健康个体建议立即就医,而对真正危急的患者却安排未来预约,这种错误可能带来致命风险。专家担忧,AI提供的虚假安全感在紧急情况下尤其危险。

针对研究结果,OpenAI发言人回应称,公司欢迎独立研究评估AI医疗系统,但认为研究结果可能无法完全反映用户的实际使用方式,并强调模型仍在持续更新和改进中。该研究也促使研究人员呼吁建立更明确的安全标准和独立审计机制,以降低AI在医疗应用中的潜在风险。

客服微信
客服微信