机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 65|回复: 0

第1批用大模型AI看病的家伙已经疯了

[复制链接]

2万

主题

3万

帖子

20万

积分

超级版主

Rank: 8Rank: 8

积分
207777
发表于 昨天 15:34 | 显示全部楼层 |阅读模式
前阵子,在我们本地视频号上,刷到有位大妈被救护车拉去医院了。
原来,那位大妈近期因为连续咳嗽,就在一个写着“AI看病”的小程序上查询,结果被AI开具了“肺癌晚期”的诊断结果。
大妈又急又怕,一下子昏厥过去,吓得家里人当场打了120。
结果,根据医院检查,她得的只是普通的支气管炎,没什么大事。
此事一出,评论区议论纷纷,有很多网友都调侃道:
“科技发展了,现在又多了一种‘新病’,叫‘AI觉得你有病’。”

话虽是玩笑,但这个现象值得深思。
最近这半年来,大模型AI在普通人的生活中,从“赶时髦”变成了“必需品”。
特别是很多重视健康的中老年人,突然有了个随叫随到的“小医生”,更是不管什么情况,都要问一下才放心。
但不得不说,涉及身体的事,还是要慎之又慎,别轻信人工智能。
大模型AI固然是个好用的工具,但承担后果的,还是我们自己。
要是用法不对,没准就会误诊漏诊,被折腾出不小的麻烦。

《三联生活周刊》的作者@苗千,分享过自己闹的一个乌龙。
24年的时候,苗千在医院做病理检测,做完恰好医院下班了。
出于好奇,他把检测的报告单拍给AI解读,AI告诉他,大概率是淋巴瘤。
接下来的几天里,他又不断询问AI,最终相信自己患上的是一种名为“弥漫大B细胞淋巴瘤”的病症,属于癌症。
等到了复查的日子,他来到诊室,告诉医生自己是淋巴瘤,直接治疗吧。
但医生看完报告却说,他只是普通的炎症,没有淋巴瘤。
他担心误诊,又换了一家医院检查,得到了同样的诊断结果。
虚惊一场后,苗千感慨道:
“我无权要求一个人工智能向我道歉,因为它不具备人的属性,更不具备成为医生的资格。
所谓‘医者父母心’,讲的正是一个医生对于病人痛苦的切身体会,这是人工智能所没有的。”

虽然人工智能已经有了长足的发展,专业能力不俗。
但在医疗这个极其特殊的行业,仍然无法全面代替人类。
医生慎之又慎才能做出的诊断,它轻易就能给出,也不用承担应有的责任。
丁香园也分享过一个盲目信任AI的案例。
一名35岁男子,肛周长了疣状赘生物,且逐渐增大。
他不想去医院,就询问AI怎么处理。
AI给出的判断是“痔疮”,并建议可以做弹力结扎。
换别人可能会去医院手术,但他居然自己在家用线尝试做结扎,结果刚扎上就出现剧烈疼痛,不得不立刻去急诊。
而急诊的结果也令人啼笑皆非,据医生诊断,AI给出的判断和建议完全不对,他不仅白白受了苦,还加重了自身病情。
此外,还有一种情况,是医学知识不足,还对AI给出的建议选择性接受,最后酿成苦果。
之前看过一个新闻,有位美国大爷,在网上看到“氯化钠长期食用对人体有害”的信息,便想着如何减少摄入。
他查资料时发现,大多数建议都围绕“减钠”,却很少提怎么“减氯”。
其实别人不提,自然是因为减氯不是正常的饮食思路,但大爷硬要ChatGPT给出建议,于是AI便说可以把氯化钠换成溴化钠。
虽然,AI也强调了溴常用于清洁等用途,不建议食用。
但大爷却沉浸在自己的养生新思路中,我行我素,最终吃成了溴化物中毒。

类似的故事,还有很多。
大模型AI的普及确实给生活带来了极大的便利,但健康这件事,从来不是只图方便就可以的。
看病也不是听听自述、看看数据和报告单,还要去感受活生生的人。
这个过程中,需要经验、直觉,以及无数次“再想一想”的谨慎。
这是身为工具的AI,目前无法做到,也无法理解的温度。
就像苗千在文章中写的:
“人工智能极小概率的误诊,也可能造成严重的后果,最终的诊断结果只能由医生做出。”
毕竟,治病救人的本质,终究还是一个生命对另一个生命,设身处地地理解和共情。

最近刷到了一条很有意思的网友评论:
“以前拿百度治病的那群人,现在开始用AI了。”
很多人应该都听过那句“百度治病,癌症起步”,在那个年代,普通人经常在搜索引擎中,被吓到心惊肉跳。
而如今,早已没人再用百度看病了,AI成了新时代的宠儿。
前两天还有新闻报道,上海交大的团队推出了全球首个智能体式罕见病循证推理诊断系统。
据说,在诊断召回率上超越了十年临床经验的罕见病专科医生。
而在更早一些的时候,国内多家医院就已经在用AI和机器人服务患者、辅助治疗了。
但奇怪的是,AI这么好用,为什么到很多人手上,起到的却是和“百度”差不多的作用呢?

首先,站在AI的角度,它获取信息的维度,天生就比医生窄得多。
往往只能通过用户的文字描述,最多再加上几张现拍的图片。
你告诉它“头疼”,它就只针对“头疼”这个词来调取知识库。
但你没说出来的“最近压力大失眠”“昨天淋了雨”“脖子有点僵硬”等影响条件,AI一概不知。
而医生看病,会望闻问切,观察你的气色、听你说话的中气足不足。
会了解你过往几年的情况,对比指标的动态变化;
还会追问患者漏说的重要信息,会借助仪器检查,会根据个人的年龄、肝肾功能、体重和偏好,为同一种病开出完全不同的处方。
这些都是AI力所不及的。

所以说,AI看病会类似在搜索引擎输入关键词匹配。
做出的判断,是脱离了具体人、具体生活环境的。
对症了自然好,万一没对上,普通患者也很难有能力发觉差错,只能完全听信。
其次,站在用户的角度,我们对病情的描述难免也不够专业化。
比如有人突然觉得心慌,他可能会告诉AI:“我感觉心跳得厉害,是不是心脏出问题了?”
这个描述里,就已带上了自己的恐慌和预判。
AI很容易根据“心跳厉害”和“出问题”联系起来,列举出心脏方面的几种疾病,并给出相应的解释。
而类似的回答又会给用户误导,让其在心脏病这个角度上追问下去,忽略其他更常见的诸如因疲劳或情绪波动引起的良性心律失常的可能。
这就是普通人难以避免的“误导性提问”,在无意识中把自己的恐惧和猜测当成了问题的一部分喂给了AI。
而AI则认真地在错误的方向上,给出了一个逻辑严密但结论有误的答案。
说到底,对普通人而言,用AI看病和用百度看病,本质上并没有太大不同。
都是利用无感情的工具,都没办法判断真伪,都很难准确描述自身情况。
甚至于,因为AI的能力更强,反而更容易造成严重后果。
所以也更需要我们明白如何使用,免受其害。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2026-3-10 06:02 , Processed in 0.095652 second(s), 19 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表