这SOP不是写在教科书里的死板条文。医生的学习过程是带有强烈责任反馈的。当医生开错药,或者漏掉关键体征,或者开了被护士长怼死的那种傻逼处方,那种来自周围的负反馈,还有心理的紧张,直接刻进肌肉记忆里。这种反馈机制是大模型缺失的。大模型在训练过程中,即便给出了错误的诊断,所承受的代价不过是一个 Loss 函数的波动,而医生呢?谁没有几晚上睡不安稳,生怕自己犯错的床出事儿,然后把自己闹个爽。王小川在谈 AI 医疗时,强调 AI 的稳定性,认为 AI 不会疲劳、不会情绪化。这直接暴露了他对医疗行为参与感和共情力的无知。医学不仅仅是科学,更是人学。
临床思维中包含着大量的决策权衡——在疗效、副作用、经济成本和心理承受力之间寻找平衡。
再举个例子,人不会按指南生病,医生也不一定按指南诊疗,对于一个没医保的贫穷患者,谁可能有帮他们想更便宜的方案的事儿发生吧,甚至是off label的野路子。那工程师呢?试图用单一的最优解逻辑去取代医学的多维博弈,这本身就是对生命复杂性的亵渎。每个高医的都会深知生命的不可预测性,而互联网产品经理,习惯于将一切复杂性简化为用户体验的闭环。这种对直觉的轻视,注定了工程师主导的 AI 医疗项目在处理非标案例时,会表现出致命的僵化。工程师思维的核心是优化:追求在给定的约束条件下(如医生数量、时间),最大化产出(诊断数量、准确率的平均值)。
对于工程师而言,如果一个模型在95%的情况下是正确的,它就是一个极其成功的产品。临床思维的核心是托底:追求在极端不确定性下,最小化灾难性后果(死亡、误诊漏诊)的发生概率。对于医生而言,5%的错误如果导致了患者死亡,就是100%的失败。
在王小川的宏图大志中,AI 医疗似乎是一个可以无限规模化的普惠工具。但一旦触及到代价与权责问题,科技公司的底色就暴露无遗。我们可以去翻看任何一家科技公司(包括百川智能)的 AI 医疗产品用户协议,里面无一例外地充斥着大量的免责声明:“本产品仅供参考,不作为诊断依据,不承担任何法律责任。”666666。一方面,王小川在宣传中宣称 AI 医生将具备甚至超越人类医生的水平;
另一方面,在法律责任上,他却迅速退缩到辅助工具的盾牌后。
医生的成长过程中有带教老师负责,独立执业后有执业医师证约束。每一个处方、每一个诊断,医生都要签下自己的名字,为什么?这他妈是责任啊!背后是对生命的负责。
如果 AI 诊断导致了患者致残或死亡,百川智能的工程师会出来坐牢吗?王小川会承担刑事责任吗?
目前的 AI 医疗,变成了一种典型的收割。利用公共医疗数据进行训练,产出一个概率模型,然后在用户协议里通过霸王条款规避所有风险。
这种无畏本质上是建立在不对称风险之上的——成功了,功劳属于科技公司的技术突破;失败了,风险由患者自担,或者由最终点击确认的低年资愣头青医生背锅。医生的敬畏心来自于对死亡的目睹,工程师的狂妄来自于对逻辑的迷信。王小川在公开演讲中表现出的那种对医学界的降维打击姿态,实际上是对医疗严谨性的极大消解。如果一个产品在设计之初就预设了自己不承担责任,那么这个产品无论在技术上多么先进,它在伦理上都是不成熟的。医疗是一个容错率极低的行业,而互联网思维的核心是快速迭代、灰度测试、小步快跑。把短平快算法的逻辑用在人命关天的诊疗上,这是无知,更是恶。
大厂的医学团队与产品团队之间存在着天然隔阂。大部分吧,通常的情况是,工程师设计架构,医学打标工人或者合规审核或者对结果审核,说实话,相比于技术,是边缘化的。这也是产品在根源上的跑偏。真正想落地 AI 医疗项目,最基础的应该让医学去主导产品和底层AGENT架构设计,去复刻自己曾经在临床上,属于自己的SOP。王小川的一些逆天发言,比如认为 AI 很快能独立行医,是对医学社会属性的完全无视。医学是一个高度封闭且具有严密评价体系的行业。什么时候 AI 医疗真正成熟?标准非常简单:当科技公司的高管和工程师愿意在产品出问题时承担法律责任,直接愿意给我去坐牢的时候,这些产品才是真成熟。如果某个 AI 医生产品首页写上:“若本 AI 诊断错误,xxx将依法赔偿并由法人承担刑事责任”,那我们才可以说他真正具备了对医学的敬畏。否则,所做的一切不过是在利用医学的严肃性为公司的估值贴金。
大模型确实可以成为医生的助手,但它永远不该成为决策者。在医疗领域的无知且无畏,充斥着国内第一代互联网精英在面对硬科技和深科技转型时的傲慢。技术应当在红线内跳舞,而不是试图拆掉红线去搞所谓的颠覆式创新。这些公司需要补的不是大模型的参数,而是作为一名医疗参与者应有的基本敬畏心。步子迈得太大,会扯着蛋。从用户协议的推卸责任,到技术路线上的概率迷信,都在透支着社会对 AI 技术的信任。医学的终点不是 AI,但 AI 医疗的终点很可能是因为一次无人负责的医疗事故而陷入漫长的寒冬。