机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 77|回复: 0

国产大模型对线张文宏

[复制链接]

2万

主题

3万

帖子

20万

积分

超级版主

Rank: 8Rank: 8

积分
203946
发表于 昨天 11:42 | 显示全部楼层 |阅读模式


最近吧,前有字节,后有阿福,然后,百川也跟进了。
嗯,AI诊疗。
哦,也是,在国外也差不多,closed AI也来凑热闹了,毕竟医疗始终被视为大模型最具想象力的落地场景。
媒体上闹得最欢的,就是王小川了,然后隔空对线张文宏。
王小川在多个公开场合表达了对 AI 医疗的雄心,甚至直接整起来了AI医生将超越人类医生的话。

这种基于工程师红利的乐观,更像是一种典型的无知者无畏。
王小川看他的发言就知道他不懂医疗,一点敬畏之心都没有。纯纯的工程逻辑。



从技术参数上看,无论是百川的大模型,还是 Google 的 Med-PaLM,甚至是可以本地化部署、参数量较小的 Gemma 3n,它们对医学的知识储备已经全方位碾压了人类医生。
真的,我这破号粉丝里医生很多,谁敢说自己比AI懂得多的哈哈哈。
五年本科、三年硕士、三年博士、三年规培,然后出山,当个轮科室的住院总纯牛马,接着熬才能勉强混个小主治。
大模型只需要几周的预训练,就能背下整个人类文明史上的医学典籍。
然而,诊断准确率和治疗的有效性并不能简单归结为知识掌握的的问题。
任何一个专科医生干几年,也会对其他科室的知识感到陌生。
至少这群医生,去跨科室给亲戚朋友疾病建议,大概率是比AI靠谱的。


在现有的评测体系下,大模型在医学资格考试中的得分极高,但在真实的临床接诊场景中,其表现怎么样不用说。核心原因在于,搞AI的并不懂医,临床思维与工程师思维有着本质的区别。可能在他们看来,医疗就是已知症状(Input)到确诊疾病(Output)的概率映射。
只要数据足够多,模型层数足够深,这个映射就会无限趋于准确。不过,实际上的医学领域,医生面对的从来不是干净的结构化数据,而是带有情绪、叙述不清、甚至故意隐瞒、误导的表述。


大模型目前也很难处理的是医学中的context与隐性信息。一个患者说肚子疼,在工程师眼中是一个标签;
在医生眼中,这涉及到患者的年龄、职业、过往病史、当下的面色、甚至是走路的姿势,嗯甚至是说话的语气。医生在处理这些信息时,并不能直接等同于简单的概率计算,用写代码的能理解的话类比,更像是在进行复杂的贝叶斯推理和排他性诊断。目前所谓的大模型诊断,本质上是基于文本统计学的下一个词预测,它并不理解生命科学的因果链条。
换个更古早的说法,知识图谱,模型的理解是不同词的关联向量的距离。这种知识储备的领先,打榜很牛逼,估计是给了王小川一种碳基幻觉,AI牛批爆了,医生不行。
让技术信徒误以为,只要模型参数够大,就能跨越从信息检索到临床决策的鸿沟。目前的AI医疗项目,大多是由工程师思维主导,试图用海量的知识来掩盖逻辑的苍白。然而,医疗的护城河从来不是知识的记忆量,而是运用知识进行安全博弈的逻辑能力。


张文宏在谈及医生成长时,强调临床思维的养成是一个长期的、主动的强化训练过程。这种思维大概就是我们一起说的医生的直觉,举个更离谱的例子,ICU的医生们私下经常打赌,某个病人多久会死。
嗯,即便症状、体征、指标都正常,甚至可能还有点好转,大概也有一种直觉:某些人印堂发黑命不久矣。换成数据的视觉里,这就是经验的极度浓缩与内化。一个顶尖医生的直觉,来自于在手术台旁无数次的言传身教,来自于在急诊科对生死瞬间的千锤百炼。
这种知识是默会的,是无法通过抓取互联网上的文字和论文来复刻的。每个成熟的医生在职业生涯后期都会形成一套属于自己的SOP,嗯,每个医生的诊疗思维都不一样。


这SOP不是写在教科书里的死板条文。医生的学习过程是带有强烈责任反馈的。当医生开错药,或者漏掉关键体征,或者开了被护士长怼死的那种傻逼处方,那种来自周围的负反馈,还有心理的紧张,直接刻进肌肉记忆里。这种反馈机制是大模型缺失的。大模型在训练过程中,即便给出了错误的诊断,所承受的代价不过是一个 Loss 函数的波动,而医生呢?谁没有几晚上睡不安稳,生怕自己犯错的床出事儿,然后把自己闹个爽。王小川在谈 AI 医疗时,强调 AI 的稳定性,认为 AI 不会疲劳、不会情绪化。这直接暴露了他对医疗行为参与感和共情力的无知。医学不仅仅是科学,更是人学。


临床思维中包含着大量的决策权衡——在疗效、副作用、经济成本和心理承受力之间寻找平衡。
再举个例子,人不会按指南生病,医生也不一定按指南诊疗,对于一个没医保的贫穷患者,谁可能有帮他们想更便宜的方案的事儿发生吧,甚至是off label的野路子。那工程师呢?试图用单一的最优解逻辑去取代医学的多维博弈,这本身就是对生命复杂性的亵渎。每个高医的都会深知生命的不可预测性,而互联网产品经理,习惯于将一切复杂性简化为用户体验的闭环。这种对直觉的轻视,注定了工程师主导的 AI 医疗项目在处理非标案例时,会表现出致命的僵化。工程师思维的核心是优化:追求在给定的约束条件下(如医生数量、时间),最大化产出(诊断数量、准确率的平均值)。
对于工程师而言,如果一个模型在95%的情况下是正确的,它就是一个极其成功的产品。临床思维的核心是托底:追求在极端不确定性下,最小化灾难性后果(死亡、误诊漏诊)的发生概率。对于医生而言,5%的错误如果导致了患者死亡,就是100%的失败。


在王小川的宏图大志中,AI 医疗似乎是一个可以无限规模化的普惠工具。但一旦触及到代价与权责问题,科技公司的底色就暴露无遗。我们可以去翻看任何一家科技公司(包括百川智能)的 AI 医疗产品用户协议,里面无一例外地充斥着大量的免责声明:“本产品仅供参考,不作为诊断依据,不承担任何法律责任。”666666。一方面,王小川在宣传中宣称 AI 医生将具备甚至超越人类医生的水平;
另一方面,在法律责任上,他却迅速退缩到辅助工具的盾牌后。
医生的成长过程中有带教老师负责,独立执业后有执业医师证约束。每一个处方、每一个诊断,医生都要签下自己的名字,为什么?这他妈是责任啊!背后是对生命的负责。
如果 AI 诊断导致了患者致残或死亡,百川智能的工程师会出来坐牢吗?王小川会承担刑事责任吗?


目前的 AI 医疗,变成了一种典型的收割。利用公共医疗数据进行训练,产出一个概率模型,然后在用户协议里通过霸王条款规避所有风险。
这种无畏本质上是建立在不对称风险之上的——成功了,功劳属于科技公司的技术突破;失败了,风险由患者自担,或者由最终点击确认的低年资愣头青医生背锅。医生的敬畏心来自于对死亡的目睹,工程师的狂妄来自于对逻辑的迷信。王小川在公开演讲中表现出的那种对医学界的降维打击姿态,实际上是对医疗严谨性的极大消解。如果一个产品在设计之初就预设了自己不承担责任,那么这个产品无论在技术上多么先进,它在伦理上都是不成熟的。医疗是一个容错率极低的行业,而互联网思维的核心是快速迭代、灰度测试、小步快跑。把短平快算法的逻辑用在人命关天的诊疗上,这是无知,更是恶。


大厂的医学团队与产品团队之间存在着天然隔阂。大部分吧,通常的情况是,工程师设计架构,医学打标工人或者合规审核或者对结果审核,说实话,相比于技术,是边缘化的。这也是产品在根源上的跑偏。真正想落地 AI 医疗项目,最基础的应该让医学去主导产品和底层AGENT架构设计,去复刻自己曾经在临床上,属于自己的SOP。王小川的一些逆天发言,比如认为 AI 很快能独立行医,是对医学社会属性的完全无视。医学是一个高度封闭且具有严密评价体系的行业。什么时候 AI 医疗真正成熟?标准非常简单:当科技公司的高管和工程师愿意在产品出问题时承担法律责任,直接愿意给我去坐牢的时候,这些产品才是真成熟。如果某个 AI 医生产品首页写上:“若本 AI 诊断错误,xxx将依法赔偿并由法人承担刑事责任”,那我们才可以说他真正具备了对医学的敬畏。否则,所做的一切不过是在利用医学的严肃性为公司的估值贴金。


大模型确实可以成为医生的助手,但它永远不该成为决策者。在医疗领域的无知且无畏,充斥着国内第一代互联网精英在面对硬科技和深科技转型时的傲慢。技术应当在红线内跳舞,而不是试图拆掉红线去搞所谓的颠覆式创新。这些公司需要补的不是大模型的参数,而是作为一名医疗参与者应有的基本敬畏心。步子迈得太大,会扯着蛋。从用户协议的推卸责任,到技术路线上的概率迷信,都在透支着社会对 AI 技术的信任。医学的终点不是 AI,但 AI 医疗的终点很可能是因为一次无人负责的医疗事故而陷入漫长的寒冬。


点评
都不用这些废话,直接给老干部们使用。301医院率先为老干部使用AI诊疗,那号召力多强啊。
别说诊疗了,中央保健局为老干部们配备大模型保健助手,不涉及到诊疗,怎么样。








回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2026-1-28 09:20 , Processed in 0.087633 second(s), 20 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表