寂静回声 发表于 昨天 12:54

都说是AI驱动新药研发 那是一回事吗

2026年4月,OpenAI 推出了一款名为 GPT-Rosalind 的 AI 模型,旨在加速药物发现的进程。
GPT-Rosalind 的定位是服务于生命科学研究,其核心功能在于从海量数据中提取关键信息,并将科研成果迅速转化为实际的医疗应用。

但是早在2020年Medidata AI就已经被美国FDA批准在临床中使用了,在试验设计和证据生成方面,Medidata AI可以预测哪些患者疗效最好;
哪些患者可能产生不良反应,进而采取措施减少不良反应或者安全事件。
在临床数据管理发面,通过Medidata AI可以对试验中采集到的所有数据进行自动校对,从而提升效率,减少数据管理者的负担。在试验执行过程中,Medidata AI则能基于历史临床试验作出预测,助力申办方筛选合适的研究中心,以及对试验中生成的成百上千的文件进行分类等。在患者参与上,Medidata AI也可助力寻找数字生物标记物等数据,进一步减少患者参与临床试验的负担。

2024 年,Medidata 提出 “AI Everywhere” 战略,将人工智能深度融入临床试验全生命周期。这一战略并非空想,而是依托于 40 余名数据科学家、100 多位 AI 产品开发人员组成的专业团队,以及 12 项专利和 20 余篇顶级期刊论文的技术积累。
在患者体验层面,AI 带来了诸多革新。以知情同意环节为例,AI 能根据受试者的语言水平和文化背景生成个性化内容,并通过聊天机器人解答疑问,大幅减少医患沟通成本。在神经科学领域,AI 通过分析 5 分钟的语音、面部表情和动作数据,就能完成阿尔茨海默病等疾病的严重程度评估,替代传统耗时 1 小时的量表评估,既减轻患者负担,又提高评估效率。
Medidata 的 AI 解决方案已在多个项目中验证了其价值。与 CRO 公司 PDD 的合作中,通过优化试验中心选择,在达成相同目标的前提下,将试验周期缩短 7 个月,成本减半,助力 PDD 赢得 6000 万美元订单。在 Arcus 的肿瘤试验中,凭借历史数据集和AI技术创建合成对照组,证明药物可降低 37% 死亡率,中位生存期增加5.9个月,为 Arcus带来 3.2 亿美元投资。而与百时美施贵宝(BMS)的合作,更是通过 AI 验证替代终点,将 CAR-T 疗法的上市时间提前 2 年。

还有达索系统旗下 BIOVIA 平台整合了 AI 与计算化学能力,构建支持药物发现关键环节的数字化框架,帮助研发团队把 “设计 — 评估 — 优化” 的迭代做得更快、更稳、更可追溯。
利用机器学习加速分子设计与虚拟评估,围绕目标产品特征(TPP)优化候选结构。
基于实验数据构建预测模型,覆盖亲和力、ADME、毒性等关键指标。
将 AI 与分子模拟结合,提高对药物 - 靶标相互作用的理解与解释能力。
提供逆合成分析建议,辅助制定合成策略与路线选择。
管理并解析海量虚拟设计与实验数据,揭示结构 - 活性关系(SAR)并支持决策。
整合第三方工具与数据源,提升跨团队协作与研发流程的连贯性。
借助 BIOVIA,团队能够在保证研发科学严谨性的前提下,缩短探索周期、提升预测命中率,并更高效地推进创新化合物进入后续开发流程。

上文提到的 Medidata 与 BIOVIA,同属达索系统旗下 。
达索 2019 年以 58 亿美元收购 Medidata,形成了覆盖药物早期发现(BIOVIA)→ 临床试验全周期(Medidata)→ 生产合规的生命科学全链条数字化布局,二者的 AI 能力并非孤立存在,而是形成了研发闭环的协同赋能。
2020-2021 年,Medidata 的 AI 合成对照臂(SCA)技术就成为全球首个被美国 FDA 批准用于关键 III 期注册临床试验的 AI 解决方案,直接用于药物上市的核心监管决策;
2024 年 Medidata 提出的 “AI Everywhere” 战略,并非从零起步,而是基于数十年积累的全球最大临床试验数据库(覆盖 3 万 + 项试验、700 万 + 患者数据)、12 项专利和完整的临床合规体系,将 AI 深度嵌入临床研发的每一个环节;
BIOVIA 则深耕药物发现上游数十年,其 AI 能力始终锚定计算化学、分子模拟、结构 - 活性关系(SAR)等核心研发场景,是全球药企研发体系中广泛应用的工业级基础设施,而非一款新发布的算法产品;
2026 年 4 月 OpenAI 发布的 GPT-Rosalind,目前仅处于研究预览阶段,仅向符合条件的客户开放 API,核心能力仍集中在文献挖掘、生物假设生成、实验规划等早期研发辅助环节,尚未进入监管认可的临床核心流程,也无规模化的商业化落地与可验证的药物上市成果。

达索体系(BIOVIA+Medidata)工业垂直 AI 路线:以物理化学、临床研究的科学规律为核心,AI 是嵌入研发流程的 “效率工具”,解决明确的、可量化的产业难题。
Medidata 拥有全球最大的标准化临床试验数据库,BIOVIA 积累了数十年的分子实验、合成化学、生物活性数据,数据全程可追溯、可审计、符合监管要求。
BIOVIA 聚焦分子设计、ADME/T 预测、逆合成分析等药物发现核心环节;Medidata 聚焦试验设计、数据管理、中心筛选、替代终点验证等临床核心环节,每一项 AI 能力都经过产业与监管的双重验证。
所有 AI 功能均符合 GxP、ICH、FDA/NMPA 的监管要求,数据全链路可追溯,已有多个 AI 成果被用于药物上市的监管审批,具备完整的合规路径。
通过 AI 为药企缩短试验周期、降低研发成本、加速药物上市,直接转化为可量化的商业价值(如为 BMS 提前 2 年推进 CAR-T 上市、为 Arcus 带来 3.2 亿美元投资),自身也实现了稳定的商业化盈利。

而以OpenAI 为代表的通用大模型垂直化路线,以海量文本、数据的语义理解为核心,AI 是拓展研发边界的 “能力增量”,主打跨领域的知识整合与创新探索。核心训练数据来自公开文献、专利、数据库,缺乏药企内部非公开的、高价值的临床与实验闭环数据,数据的合规性、可验证性存在天然短板
主打生物化学、基因组学、蛋白质工程的跨领域理解,擅长证据整合、假设生成、多步骤实验规划,解决的是研发早期的 “开放性问题”,而非临床落地的 “确定性问题”。
大模型的 “幻觉” 问题、数据来源的可追溯性、算法决策的可解释性,均与医药行业的强监管要求存在显著冲突,尚未有成果被监管机构用于药物上市的核心决策。目前仅能展示基准测试性能、实验室级别的能力验证,无规模化的商业化收入,也未从根本上改变 OpenAI 持续巨额亏损的商业现状。

达索体系的 AI 路线,走的是 “产业需求→技术研发→场景验证→监管认可→商业闭环” 的路径:先深度扎根医药研发的每一个具体环节,搞清楚药企的核心痛点、监管的刚性规则,再用 AI 去解决一个个具体的、可量化的问题,最终让 AI 的价值直接体现在 “药物更快上市、成本更低、研发成功率更高” 上,自然实现了与药企的双赢。
而 OpenAI 为代表的通用大模型路线,本质上是 “技术能力→场景适配→需求挖掘” 的路径。GPT-Rosalind 虽然在生物信息学基准测试中表现亮眼,甚至在部分任务中优于人类专家,但它解决的仍然是研发早期的 “辅助性问题”,而非决定药物生死的 “核心问题”。新药研发的核心壁垒,从来不是 “找不到文献、想不出实验方案”,而是 “分子在体内是否有效、是否安全、能否通过临床试验与监管审批”—— 这恰恰是通用大模型的能力盲区,也是达索体系深耕数十年的核心护城河。

而且很多科学家从自身的科研实践中已经总结出,自然语言在研发中没有任何优势,他们宁愿使用鼠标和键盘来操作程序。
绝大多数鼓吹 “自然语言降低科研门槛” 的声音,都完全脱离了一线科研的真实工作状况。
对于熟练的研发人员而言,键鼠操作、代码指令、专业软件的标准化交互,是 “精准指令直达”,而自然语言交互,是 “高成本的模糊博弈”。
熟练的研发人员用 BIOVIA 这类专业工具,只需要:输入靶标 PDB 编号、配体 SMILES 字符串、选定经过验证的力场模型、设定好活性阈值与 ADMET 核心指标,点击运行,就能批量完成 1000 个分子的虚拟筛选与评估,全程 10 分钟,每一个参数、每一步运算都完全可控、可追溯、可复现。
而用自然语言大模型,你需要经历的是:

第一轮:“帮我做 XX 靶点的高活性分子筛选,要成药性好的”—— 大模型给你一堆泛化的分子结构,用的是默认的、甚至错误的力场,“高活性”“成药性” 的标准完全是它自己脑补的;
第二轮:纠正 “我要的是针对 XX 突变体的靶点,不是野生型,用 OPLS4 力场,不要 AMBER,核心指标是 Caco-2 通透性> 10^-6 cm/s,hERG 抑制 < 1μM”—— 大模型改了一部分,但依然会偷偷篡改参数,甚至编造不存在的分子活性数据;
第三轮到第 N 轮:反复纠正它的理解偏差、排查它偷偷修改的变量、验证它给出的每一个数据,最终你会发现,花 2 小时跟大模型拉扯的事,自己动手 10 分钟早就做完了。

临床数据管理员用 Medidata 的标准化工具,只需要设定好数据核查的逻辑规则、异常值阈值、源数据溯源要求,就能自动完成上万条病例数据的自动校对,每一条异常标记都有明确的规则依据、可直接定位到源数据。而用自然语言大模型处理,你会面临无尽的模糊地带:
“帮我核查这份临床试验数据的异常值”,什么叫异常值?是超出 3 倍标准差,还是不符合临床诊疗常规?是缺失值 > 20% 标记,还是全量标记?这些临床研究的核心规则,自然语言永远无法做到代码级的精准定义,最终大模型给出的结果,要么漏检关键异常,要么误标大量合规数据,你依然要逐条人工复核,所谓的 “解放双手”,完全是空中楼阁。

科研人员的核心需求从来不是 “少敲几下键盘”,而是 “每一步操作都精准可控,每一个结果都可复现”。
自然语言看似降低了操作门槛,实则把研发人员从 “执行者” 变成了 “无限纠错的审核者”,而纠错的时间成本、试错的经费成本,远高于自己动手完成。
科学研究的底层逻辑是 “基于事实的逻辑推导与实验验证”,结论的可靠性完全依赖于数据的真实性、推理的严谨性、实验的可复现性。而 GPT 类大模型的核心机制,是 “基于海量语料的下一个 token 概率预测”,它的核心目标是 “生成通顺、符合人类预期的文本”,而非 “输出真实、精准、符合科学事实的结论”。

大模型的幻觉,最可怕的不是一眼就能看穿的低级错误,而是 “细节拉满、逻辑自洽、完全符合科研范式的伪造”。在药物研发领域,它可以编造不存在的化合物 IC50 活性数据、杜撰靶标晶体结构的 PDB 编号、伪造顶级期刊的文献结论、甚至编出一整套看似完美的逆合成路线 —— 而这些内容,非经实验验证、文献溯源,根本无法识别。一线科研中已经出现过大量真实案例:科研人员用大模型生成的分子设计方案,花费数月时间、数十万经费合成后,才发现大模型编造了核心的活性数据;用大模型整理的文献综述,里面近 30% 的引用文献是完全杜撰的,而这些虚假结论,直接误导了后续的研究方向。

医药研发、生命科学研究,尤其是进入临床试验、监管申报环节,“可解释性、可追溯性” 是刚性的监管要求。一个分子为什么有活性、一个临床试验的终点为什么这么设计、一个统计结论为什么成立,每一步都必须有明确的科学依据、完整的推导过程、可溯源的数据支撑。
而通用大模型的推理过程是完全的黑箱,你永远无法知道,它给出的一个科研结论,到底是来自真实的文献数据,还是来自它的概率拼接。
它的一个实验设计,到底是基于科学规律,还是来自语料里的相关性巧合。
这种黑箱特性,决定了它的输出永远无法进入药物研发的核心流程,更不可能通过 FDA、NMPA 等监管机构的审核。

生命科学、药物研发的语言,是化学结构式、数学公式、标准化的参数与代码,这些语言的核心特征是 “唯一、无歧义”。
而自然语言的本质特征,就是 “模糊性、多义性、语境依赖性”。同样一句 “这个化合物对靶点有很好的抑制活性”,在科研语境里,需要明确是 nM 级还是 pM 级、是针对野生型还是突变体、是体外酶活还是细胞水平、测试条件是什么。
而在自然语言里,这句话没有任何精准的信息,大模型可以基于这句话,生成无数看似合理、实则完全不符合研发要求的内容。
科研人员宁愿用鼠标点击标准化的参数选项、用键盘输入精准的代码与数值,本质上是在用无歧义的标准化语言,规避自然语言的模糊性陷阱。

上面的论述并非全盘否定大模型在生命科学领域的价值,而是要明确它的能力边界:
它只能在不影响科研核心结论的非关键环节,提供辅助价值,绝对不能进入科研的核心流程。
它的合理适用场景是科研前期的文献泛读与初步筛选,帮你快速定位某一领域的核心文献与研究方向。
但最终必须溯源原文,绝对不能直接用它的总结结论。
实验记录、科研报告、论文的文本润色与格式整理,不涉及核心数据与结论的推导。
科研常识、基础实验方案的快速查询,替代传统的搜索引擎,但关键操作步骤必须核对标准操作流程 SOP。
跨领域的知识科普,帮你快速了解陌生领域的基础概念,而非深度的科研推导。

而一旦进入分子设计、实验设计、数据处理、统计分析、结论推导、临床方案设计这些决定科研生死的核心环节,通用大模型的自然语言交互、概率生成机制,就成了完全不可控的风险源。
这也恰恰解释了,为什么达索 BIOVIA、Medidata 这类工业级垂直 AI 工具,早已实现商业化落地与产业双赢,而 OpenAI 的 GPT-Rosalind 这类通用大模型,依然停留在 “听个响” 的阶段。
前者的核心逻辑,是尊重科研的底层规律,用 AI 做科研的 “辅助执行器”—— 研发人员定规则、定参数、定目标,AI 精准执行、提升效率,全程可控、可追溯、可验证。
而后者的核心逻辑,是试图用自然语言重构科研流程,让 AI 做科研的 “主导决策者”。
这从根上就违背了科学研究的本质,自然会被一线科研人员用脚投票。
说到底,科研人员要的从来不是 “会说话的 AI”,而是 “能精准干活、不瞎编乱造、完全可控的工具”。
在严谨的科学研究面前,模糊的 “智能”,远不如精准的 “笨拙”。

页: [1]
查看完整版本: 都说是AI驱动新药研发 那是一回事吗