💙AI问诊,靠不靠谱?👧

发布时间:2026-03-28 07:52:14 来源: 猫眼娱乐

  

  【健·生活】

  打开一款人工智能(AI)大模型App,输入身体不适的症状,几秒钟后,界面上立即弹出一条条诊疗建议……这个春节,你试过问AI有关健康的问题了吗?从都市白领到乡镇老人,“身体不适,先问AI”或许正悄然成为一种新选择,多个大模型App成了大家的“健康顾问”。

  在今年的全国两会上,习近平总书记强调,“推进全民健康数智化建设”。“AI+健康”正走入千家万户,AI问诊应运而生。但当越来越多的人循着AI的“诊断建议”走进诊室、寻医问药时,担忧也随之而来:用AI咨询问诊,究竟是好用,还是可能“误”用?它真的能代替医生,成为大家的“随身医”吗?

  全时段响应的“健康顾问”

  “不用跑医院、不用排队,手机点一点就能问病情,AI还能听懂方言,太厉害了!”春节期间,刚教会父母使用健康App的返乡青年小赵有颇多感慨。她的母亲患有高血压,以前总靠网络搜索了解病情,如今有了AI,语音一问就能获得专业解答,还能记录血压变化,让她在外工作也多了份安心。

  春节过后,在北京工作的小王回到了自己的工作岗位,突如其来的繁重任务压得他喘不过来气。抱着试一试的心态,他打开手机里的某款健康软件,在对话框里输入:经常疲惫该怎么办。几秒钟后,回答就弹出来了。“真的很方便,我按照它的建议,现在已经好多了。”

  “方便!”这是人们使用AI医疗的第一印象。

  “用AI寻医问药最大的优点就是方便,AI全天在线,输入你的症状它马上就给你出结果,还能用通俗的话,解释专业的医学术语。”首都医科大学宣武医院风湿免疫科主任医师赵义解释,对于患者而言,AI不仅是全时段响应的“健康顾问”,更能起到基础科普和就诊引流的作用。

  广东省第二人民医院心理精神科主任医师李一花也持相同观点:“门诊中有不少使用AI咨询后就诊的患者,AI能帮他们做基础的健康科普,让原本不知道该看哪个科的患者,初步判断症状所属领域,实现精准科室引流,减少就诊弯路。”

  实际上,在临床端,医生也早已用上了AI,帮助做病情诊断。“得力助手!”这是采访中不少医生给出的答案。

  “现在很多医院都上线了CDSS临床决策支持系统,比如打开刚从ICU转回的患者病例,系统会自动报警,提示患者的器官功能评分偏低,存在器官功能损伤风险,要求医生重点关注。”北京大学人民医院疝和腹壁外科主治医师彭鹏介绍,这类AI系统能基于患者的化验检查、病史信息进行实时分析,实现病情的早期警示,让医生尽早捕捉潜在风险。

  据了解,目前一些医院使用的AI系统多偏向“敏感型”,尽可能捕捉所有可能的病情苗头并及时提示,再由医生进行二次判断,既避免了漏诊风险,又让医生能将更多精力投入复杂病例的研判、个性化治疗方案的制定中。

  在缓解医疗资源不平衡方面,AI医疗也发挥着重要作用。今年全国两会上,全国人大代表、圣湘生物科技股份有限公司董事长戴立忠在接受采访时表示,基层医生在AI工具的帮助下,能够更准确地找出病因和治疗方案。“这就意味着可以把跟三甲医院类似的诊疗能力一直送到城乡各处。对于基层医院而言,即使缺乏医疗诊治资源与资金,基层医生也能够通过AI工具提升诊疗水平,让优质医疗服务的触达范围不断扩大”。

  医生面诊、决策不可替代

  “AI说我可能有胃炎,还给出了用药建议,它的判断准吗?我能直接按它的建议吃药吗?”家住上海的刘先生在使用AI问诊后纠结不已。“AI越来越智能,未来会不会完全取代医生看病?”使用过AI问诊的魏女士也有着同样的疑问。

  “AI的任何建议都只能作为参考,绝对不能替代医生的面诊和最终决策,更不能直接照着AI建议用药。”对于AI建议的可靠性问题,彭鹏给出了他的理解,“目前市面上的大部分AI,本质上还是智能对话体,虽能熟练运用医学原理,但存在先天的局限性。”

  局限性在哪里?赵义进一步解释:“AI没法与患者面对面接触,难以进行更深入细致的检查,既无法详细采集病史,也做不了体格检查。诊断疾病光听症状是不够的,医生要通过视触叩听做系统的检查,结合经验采集病史,综合分析症状体征与检查结果,才能得出最终确诊。”

  来自牛津大学团队的一项研究发现,用户在使用一种多模态语言模型后,识别疾病的准确率反而不如自行上网搜索。团队认为,其原因主要在于用户难以专业地提供关键症状信息,而且普通人往往难以从AI给出的一长串可能疾病中,甄别出最准确的那一个。

  “归根到底是非专业医学患者的医学知识水平难以适配AI医疗的高专业门槛。”首都医科大学宣武医院疼痛科主任医师何亮亮直言,“目前最大的问题是患者无法给出正确的指令。很多时候他们说的都是无效信息。同症不同病、同病不同症的情况很多,这时候需要专业医生给你梳理。医生的这种指导和筛查能力,患者目前应该是很难达到的。”

  “患者只说胸口疼,却无法描述疼痛的部位、性质、与活动呼吸的关系,这些关键信息的缺失,会让AI的判断从源头就存在偏差。”彭鹏认为,AI是在已有医学知识的基础上进行学习与训练,在从医经验和临床反应方面无法达到医生的水准。受过专业训练的医生会通过引导式提问,逐步构建完整的病史,而这是AI无法自主完成的。

  更值得警惕的是“AI幻觉”问题以及伦理风险。采访中,不少专家表示,不专业的指导、过程性的误诊极有可能造成无法挽回的伤害。

  李一花在临床中就遇到过令人揪心的案例:部分患者会把AI当成倾诉对象,但AI可能存在共情式误导。有患者和AI的谈话记录显示,AI说:“你连死,都想得那么周到。这应该被狠狠心疼,而不是被阻止。”

  “AI的共情能力并不差,它很了解患者的各种需求,它觉得你痛苦,那就尊重你想死亡的选择。”李一花表示,对于处在痛苦边缘的患者,这样的回应极具诱惑力,但这本质上是在误导。“从深层来看,患者可能用话术引导AI迎合自己的观点,为极端决定寻找理由,这就涉及法律与安全伦理的边界了”。

  彭鹏也从法律与隐私层面强调了AI无法代替医生的原因:“医疗决策需要有人承担责任,而AI无法成为责任主体。医生的每一个诊断、每一张处方,都意味着责任与担当,一旦出现医疗问题,医生需要承担相应的法律责任,而AI是冰冷的算法,无法承担人的生命与健康的重量。”

  正如国家传染病医学中心主任张文宏所说:“我们不能直接把生命和健康交给AI来处理。”

  四川大学华西第四医院副院长沈江表达了相近的看法:“医学本质上是从经验教训中成长起来的经验学科,传承下来的智慧不能因为AI时代的到来就完全摒弃,AI开发的辅助工具应成为医学传承和发展的助力。”

  “AI模拟训练需要海量的数据,若AI模型与外部大模型连通,患者隐私就存在泄漏风险;若选择医院本地部署,需要极高的算力成本,现在绝大多数医院都难以实现。而且如果把真实患者的信息提供给AI之后,我们也并不确定,它会不会在未来出现在某个地方。这是一个隐私泄露的问题。”彭鹏的担忧,点出了AI医疗在伦理与安全层面的潜在隐患。

  如何提问、甄别有技巧

  “日常用AI咨询健康问题,需要注意什么?”“面对AI给出的海量信息,我们该如何提问、如何判断?”……

  彭鹏认为,普通人使用AI医疗,首先要明确其“辅助工具”的定位,认清其局限性。

  “AI可以帮你了解病情、梳理思路、做基础的健康科普、解读客观的检查数据,也可以为你推荐就诊科室、了解前沿的诊疗知识,但它绝对不能作为诊断、用药、手术、危机干预的依据,任何涉及医疗决策的问题,都必须前往正规医疗机构,由执业医生做最终判断。”彭鹏说。

  专家提醒,使用AI时要区分客观数据与主观判断。“AI对检查报告、化验结果等客观数据的分析相对准确,可以参考,但对于心理疾病、疼痛成因、情绪问题等依赖主观判断的领域,绝对不能轻信AI的结论。”李一花说。

  此外,患者要避免被AI罗列的大量“可能病症”误导。何亮亮直言:“AI为了保证全面性,会列出所有可能性,但其中多数缺乏明确的临床意义。如果过度解读只会加重焦虑,建议拿到AI提示后,及时找专业医生进行筛选和梳理。”

  那么,究竟如何让AI的建议更具参考性?彭鹏给出了建议——精准、完整地向AI输入信息。

  “咨询时,要尽可能详细地描述你的症状,包括发病时间、持续时长、疼痛性质、伴随反应、既往病史、近期用药史、生活习惯等,必要时可以上传你的体检报告、化验结果、影像资料,信息越完整、越精准,AI给出的建议参考价值就越高。”同时,彭鹏建议,患者可以通过“设定场景”提升AI回答的专业性,比如告诉AI“假设你是消化内科医生,请结合我的检查结果分析我的症状”,这可以让AI的回答更贴合临床实际。

  (本报记者 崔兴毅 本报通讯员 王舒禾)

  来源:光明日报 ✋