|
不知从什么时候开始,Agent 变成了一种万能公式,什么都可以套进去一下。但,Agent 真的有那么好吗?真的有竞争力吗? “ Manus 前阵子刚推出的新功能 Wide Research,我觉得非常不具备竞争力,对提高产品竞争力没有什么用。” 某大型金融企业 AI 技术专家王显( 化名 )表示。 从 “ 次日即旧 ” 的榜单到被基础模型一轮升级清场的产品,2025 年的 Agent 创业,热闹背后是可怜的留存率与渐趋同质的体验。 几乎所有 Agent 产品都在讲 “ 更聪明、更全能、更自动化”,但用户只试用一次就离开的比例居高不下,Demo 能飞,落地常摔,这是否意味着通用型 Agent 的叙事正在透支? 本文把镜头拉远,看看泡沫究竟来自资本驱动、技术错配,还是场景误判? 我们将邀请来自大型企业、创业公司的多位一线实践者,以 Manus 近期的新产品 Wide Research 和公司跑路、撤资事件为引,追问国内外 Agent 泡沫乱象现实、背后的原因,以及未来 Agent 赛道的生存规则。 在交流过程中,通用与垂直的取舍和统合是决定去留的关键。 实际上,今年 Agent 大火, 主要是在 tool-use 上取得突破,《知识图谱:认知智能理论与实战 》、《 知识增强大模型 》与《 比 RAG 更强- 知识增强 LLM 型应用程序实战 》作者、大模型技术专家王文广表示,“ 具体来看,从编程到browser-use,再到 computer-use,以及随着 MCP 通用接口普及率的提升,Agent 的 tool use 能力得到增强,能够更高效地从外部获取信息,以及与外部系统进行交互。” 平安保险技术平台组负责人张森森进一步解释道,“ 技术层面上,协议逐渐成熟,能力外延扩大,可以通过 MCP 协议等方式应用到更多场景。应用层面上,有些长尾场景得到了覆盖,比如从浏览器信息助手到执行动作的转变:过去只是提供答案,现在能帮助完成动作。生态层面也降低了一些成本。” “ 过去厂商比拼模型参数,现在还要比拼模型加生态工具的组合能力,市场竞争焦点已经发生转移。” 在整个赛道中,炒作了大半年的 Agent 概念,也开始面临越来越显性的质疑。 王显详细解释了为何 Wide Research 缺乏竞争力,“ 第一,Wide Research确实提高了并行处理的效率,但也非常消耗计算资源和调用额度,所以它的定价非常贵。” “ 第二,没有看到它与单体高性能的 Deep Research 在性能准确度、成本效率上的公开对比或测试,所以不能确定它在使用大量并行任务后,效果是否真的得到提升。” “ 最重要的一点是,它仍然没有解决场景壁垒的问题。” “ 它没有专业数据、没有专属工具链、没有行业认证、没有与业务深度绑定的集成,也没有与高价值业务场景的绑定,也就是任何人都能做。所以,它更偏向工程能力的延伸,而不是在构建场景护城河。” “ 当然,早期采用浅而宽的策略来获客没有问题,但长期来看,Manus无法抵御模型厂商的下沉和垂直厂商的渗透。” “ 所以在我看来,Manus 自始至今,从产品角度而言,思路是完全失败的。” AI 技术专家和创业者陈为也基本持一致的观点:“ Wide Research 的本质是 ‘ 规模化通用任务执行器 ’,效率高,但没有解决 ‘ 决策 ’ 问题。” “ 用户会发现,当他们遇到真正复杂的问题时,这个通用 Agent 还是帮不上忙,最终不得不转向专业的垂直产品或人工服务,导致用户留存率不高。” 如果扩大到任意的通用 Agent,则它们都具备一个看似有吸引力但实则致命的特点:任务范围模糊。 知言吉智 CEO 付瑞吉表示,“ 任务范围模糊一定会对产品带来不利的影响。一方面,当一个 Agent 宣称能做所有事情时,它往往在任何一个领域都做不到最好;另一方面,任务范围模糊,意味着用户对于这个 Agent 到底能帮自己解决什么问题也会有困惑,那么这个产品的认知成本就非常高。” 付瑞吉进一步解释了近期 Agent 泡沫兴起的创业者心态:“ 大模型的出现让大家觉得开发门槛降低了,感觉 ‘ 人人都能做 Agent ’。许多开发者和创业公司认为将其包装成一个能解决各种问题的 ‘ 超级助手 ’,能迅速吸引大量 C 端用户。通用型 Agent 的核心卖点就是 ‘ 解决所有问题 ’。但现实是,目前为止没有任何一个 Agent 能真正做到这一点。” 付瑞吉道,“ 营销只能负责将大众的注意力吸引过来,但 Agent 不同于内容类的产品(如短视频 )只要用户的注意力就够了,它还是要解决用户的实际问题的,如果用户发现产品 ‘ 华而不实 ’,则很难留存。”
王显以 Wide Research 为例解释了为何通用 Agent 产品现阶段对于企业用户无用,“ 对于企业而言,Wide Research 并没有说明 Agent 是如何分工、如何合作、如何整合各自结果的,它们之间的协调协议和调度机制也不明确。那我最后怎么去做审计呢?作为企业,我必须审计这个过程是否合规,以及在执行过程中到底发生了什么。所以我没办法信任它给出的最终结果。”
“ 尤其是在金融行业,我们可能花了很长时间跑出一个结果,如果它直接告诉我买哪只股票、投哪家公司,我不可能只凭这个结果就去执行。”
薛赵明表示,“ 实际上,当前无论是创业公司,还是一线的云厂商的产品,大部分的产品都还是在一个特定场景下去演示,真正的规模化落地还是偏少。” 张森森表示,“ 国内很多 Agent 产品功能繁多,但基本都是快速堆叠,痛点不聚焦。” “ 比如有大量集成了写文案、做 PPT、查资料、生成图片等功能的产品,不乏大厂参与其中。它们都有通用 Agent 的特点,功能多但不精。写代码准确率不高,数据分析缺少可解释性,设计产出质量参差不齐。初次使用可能觉得新鲜,但要长期依赖则难以实现。很少有明确与工作流、KPI 绑定的可交付结果。” “ 具体到一些金融类工具型 APP( 公司主体一般没有正式的金融业务牌照),比如炒股平台,会提供所谓的智能投顾功能。当我打开某只股票时,它可能提示该股票出现‘红三兵’,未来可能上涨,但这样的判断缺乏准确性。”
“ 因为它只是摘录过去的一些市场信息,而二级市场的信息来源非常多,决策点也很多,这类产品完全无法体现这些复杂因素。看起来像是做了一个智能投顾,但实际上既没有真正实现投资组合优化、风险控制,也无法对接交易系统,无法支撑其宣传的定位。”
“目前市面上没有一家能真正把智能投顾功能做好。实际上,大部分经纪公司都有相关部门去做这件事。问题在于,一方面他们觉得必须做,另一方面看到大模型似乎能解决问题,就开始投入开发,完成后立刻做宣传,声称接入了大模型并具备某种能力。” “但这里的问题在于,他们的宣传能力与实际能力并不匹配,并非能力完全无用,而是存在明显落差。” 王文广表示,“ 成功演示的往往是任务中那 20% 的标准化部分,而真正构成工作核心的,是那 80% 的、充满‘长尾异常’的复杂现实。”
就连大家目前普遍主动或被动接触过的AI搜索,其实也还很初级,JinaAI 前 CTO 王楠表示,“ Agent 目前能够多轮使用简单工具或者单轮使用复杂工具,但是多轮使用复杂工具(例如搜索工具 )的能力还没有达到生产可用。从BrowseComp Benchmark 上看,搜索大模型在使用搜索工具方面还有很大的提升空间。这种差距的原因在于大模型在使用通用工具上的能力还没有迎来ChatGPT时刻。”
白鲸开源 CEO 郭炜总结道,“ 目前整体来看,各种 Agent 产品给人的惊喜度确实不够。因为现在 Agent 技术本身还没有进入成熟或真正可用阶段,技术生态不完善。甚至关于Agent 的理念,大家都还没有想清楚。” “ 国内大多数所谓的 Agent 其实并不是真正的 Agent,只是为了吸引眼球而这么命名。在我理解中,能够替代 ToB SaaS 和 ToC APP 的那种 Agent 产品还没有出现。国内品牌都是如此。” “ 换句话说,现在的 Agent 大多是套了自然语言交互外壳的 RPA( 软件机器人流程自动化 ),普遍缺乏深度。那为什么不直接用 RPA 呢?RPA 还没有幻觉。”
这种 “ 名不副实 ”的现象,王文广指出,是所谓的“智能体洗白”( AgentWashing ),在行业中已非常普遍。 “ 这是 ‘ 能力泡沫 ’ 的直接产物。公司利用市场对 ‘ Agent ’ 一词的追捧来吸引投资和用户。最直接的例子是,有权威报道指出,全球几乎所有在 2022 年底 ChatGPT 之前就在所谓的 RPA 等赛道上有所成就的企业,都在挂智能体的羊头卖 RPA 的狗肉。” Gartner 今年 6 月的市场分析报道表明,其在测试的 ‘ 数千款 ’ 所谓的 Agent 产品中,只有约 130 款真正符合标准。 “ 所以,可以做个简单的排除法,寻找智能体或大模型落地的供应商,首先排除掉以往做过 RPA 的企业,这可以避免一半的坑。投资也是一样。”
当前的 Agent 产品普遍缺陷明显,可以从产品、工程、场景等多方面理解。 产品层面主要是可靠性不足。对于为何大部分面对消费者的 Agent 产品中,90% 的用户用一次就离开,郭炜表示,“ 这很正常,因为它还不如直接用 APP。真正的 Agent 应该比APP 更方便、更简单。”
“ 而如果是面向企业的产品,必须比现有软件更简单、准确、方便。本来用户点三下鼠标就能完成的事,现在用 Agent 却要用自然语言先说一句话,然后再跟它说十句话,才能替代原本三次点击的工作。这样的体验让人宁愿直接点鼠标。” 王文广表示,“ 换句话说,最根本的原因是,对于大多数真实世界任务,用户为验证和修正 AI Agent 输出所付出的心智成本和时间成本,超过了 Agent 本身所节省的成本。” “ ‘ 通用个人助理 ’ 承诺的是一个科幻级别的未来。其所要处理的任务,如预订家庭旅行、管理个人财务、安排重要会议,都具有一个共同点:高信任要求。例如,用户需要确信 Agent 不会订错机票、不会泄露财务信息、不会搞砸会议时间。” “ 然而,当前大模型的 ‘ 幻觉 ’、知识陈旧等问题和 Agent 执行的脆弱性,使得其可靠性极低。”
“ 这种 ‘ 高信任要求 ’ 与 ‘ 低可靠性 ’ 之间的巨大鸿沟,或未能稳定地跨越从‘ 新奇玩具 ’ 跨越到 ‘可靠工具 ’,是 C 端通用 Agent 无法获得用户长期留存的根本原因。用户可以容忍一个聊天机器人讲错一个历史知识,但绝不能容忍一个 Agent 订错一张机票。”
缺乏合规与审计能力,生产过程要可追溯、可解释,并具备权限与操作流程控制。但在各个平台的演示中几乎看不到这一点,而这恰恰是企业最重要的需求。” 郭炜认为,这个原因可以非常简单,“ 没有真正深入到用户场景中去做。”
“ 大部分 Agent 仍是由处在特别早期阶段的创业者在推动。但真正有价值的 Agent,需要在某个业务领域有深厚积累的人或公司来做。”
Agent 还有一个永远无法解决的问题,那就是底层大模型的幻觉。已有研究证明,大模型无法从理论上完全消除幻觉。 “ 在现有大模型技术下,有许多场景尝试进行完全 Agent 化,但效果并不理想。” “ 以自动编码为例,各种号称能够代替人类编码的工具,无论是带 Agent 的 Claude Code、Cursor,还是Augment Code等,都无法真正替代程序员的工作。无论是初级、中级还是高级岗位,都仍需配备人类程序员进行检验和监督。否则一旦幻觉出现且缺乏有效控制,风险极高。例如,近期某公司在使用自动化工具 Replit 时出现误操作,导致数据库被删除。” “ 目前也没有特别好的方式来自动定位和追溯幻觉。在校验中,虽然无法校验所有环节,但可以抽检一两个关键点,并用传统方法或知识库进行纠错和约束。” “ 幻觉在前期沟通阶段有一定优势,因为它可能带来一些创新性想法。但在企业落地执行阶段,应尽量控制甚至避免使用大模型。在 Agent 执行任务时,为缓解幻觉,只有借助 workflow 才能保证足够的确定性。” 王文广指出,思维链的幻觉其实在 Agent 产品中也非常常见,“ 这通常被称为过程幻觉,即 AI 编造了一个它并未执行或执行失败的操作过程。” “ 它输出的不是真实的操作日志,而是它生成的一个 ‘ 看起来像是成功了的 ’ 操作日志。例如,它声称 ‘ 我已经成功运行了测试,所有测试都通过了 ’,但实际上它可能根本没有能力或权限去运行测试,或者实际测试运行失败了。”
“ 从这点也可以看出,在许多情况下, 单纯依靠大模型,存在非常多无法解决的问题。如果把所有问题当做一个平面,大模型能够解决的问题是平面上的布,无法解决的问题是孔,那么可以看到,这个平面是千疮百孔的。”
在 Agent 框架设计方面,目前领域内有一个被过分炒作的概念,那就是多智能体。 “ 具体来说,多智能体会显著增加复杂度,容错设计难度提升,开发、维护、算力成本更高,收益和成本不匹配。引入更多智能体未必能提升效果,同时也难以抵消延迟,并会使得系统更加不稳定。用户体验最终取决于响应速度,稳定性方面,智能体越多越容易跑偏,可能出现循环对话、信息丢失等问题,还需要额外监督和约束,复杂度会越来越高。” “ 多智能体的案例也有,比如一些游戏公司在做 AI 团队游戏,在沙盒环境里尝试多智能体交互。但对大部分企业而言,并不需要这种复杂度。” 王文广补充道,“ 虽然在一些对协调和优化要求极高的特定领域,已经出现了更复杂的、已实际落地的多智能体系统案例,但绝大多数情况下,应该优先解决简单的问题。” 基础模型能力方面,当前非常核心的一个限制还是上下文长度。虽然 OpenAI、Anthropic、谷歌等 AI 公司一直宣称模型上下文达到数十万、上百万 token,但Reddit 社区反馈其中水分很大,有时几万 token 输入下,模型准确率就大幅下降。 张森森表示,“ 实际体验来看,大部分厂商宣称的上下文长度确实水分很大,别说两三千行代码,甚至一千多行时就开始丢失信息了。” “上下文长度代表了基础模型能力的天花板,特别在Coding Agent 场景中,基本就是硬天花板的程度。” “ 在企业内部优化这个问题不仅很难,而且也不是靠企业自己能完全解决的。可选的方案有:代码检索以及更加智能的代码检索;动态上下文管理,只加载与本次修改相关的依赖文件。但这些都治标不治本。” “ 对资深程序员来说影响不大,他们能很快发现逻辑缺口。” “ 但对初学者来说,一旦项目规模大,IDE 频繁加载就会崩溃。项目规模一大,就会涉及很多模块和依赖,甚至是跨模态的复杂系统。模型不得不频繁丢失上下文、重新加载信息,导致迭代过程完全断裂,忘记之前的决策,甚至可能出现重复造轮子的情况。” 郭炜补充道,“ 当前的限制不仅来自模型本身,还与底层芯片架构有关,包括显存、外部存储等都需要进一步提升。” 王显认为,在硬件基础设施的限制下,上下文长度瓶颈对于国内而言将是更严峻的问题。 “ 国外芯片比如英伟达 H100、A100 这样的高端 GPU,能够更高效地进行分片计算,处理几十万、上百万 token 上下文。同时它们也有软件层面的优化,比如 FlashAttention 工具、针对张量计算的优化配置等,这些都是通过软硬件结合来提升性能的。” “ 相比之下,国内主要通过算法优化和软件工程做一些 ‘ 曲线救国 ’ 的工作。类似的,DeepSeek、Kimi等团队也在发布各种上下文剪裁、分层记忆、稀疏 Attention 等方法,其实都是一些面向低成本的方案。” “ 一些国内厂商号称自己的高端 GPU 在浮点性能、显存、宽带等各方面和 H100 很相近,但其实还是有很大差距的。国外的顶配集群,比如 H100 加NVLink Switch,能轻松地应对百万级 token 推理。”
大模型厂商经常在营销中刻意忽视模型当前的智能上限,而过分强调可以放心地依赖大模型全权执行工作,比如 Claude 甚至介绍了一种简单粗暴的使用经验,他们内部用 Claude Code 写代码的时候,有一个原则就是 “ 不行就重来 ”。 王文广表示,“ ‘ 不行就重来 ’ 的策略,跟金钱和时间等无关,跟解决问题的复杂程度有关。简单来说,在原型探索阶段或者简单的应用中,是一种有效的捷径,但在严肃的、可维护的较为复杂的生产环境中,这是一种不可持续且极具破坏性的工作模式。”
除了工程和模型层面的技术问题,在行业层面,还存在几大问题,包括资本叙事泡沫、基模公司挤压、国内 ToB SaaS 的痼疾等。 资本叙事泡沫、基模公司挤压是全行业面临的普遍问题,但国内实际上还面临更多的限制。 要理解这一点,就要深入探讨前面提到的国内外 Agent 泡沫差异,在大模型和 Agent 时代,这个泡沫衍生出许多新的表象,但背后藏着不少老问题。 郭炜表示,“ 在国内做垂直 Agent 与在国外相比,困难并不主要来自 Agent 技术本身,而是行业环境的老问题。这与做 SaaS 或软件是同样的逻辑。” “ 国内本身缺乏大型软件公司,SaaS 发展也并不成熟,这使得软件的整体价值感尚未充分体现。由于人力成本相对较低,软件在提高效率方面的价值不够凸显,继而 Agent 的价值也就难以被充分认可。” 付瑞吉表示,“ 国内各行业 SaaS 普及率低、软件生态割裂,导致不同企业情况各不相同,使得 Agent 的开发也不得不做大量定制,开发成本高。” 郭炜补充道,“ 毕竟 Agent 并不是凭空出现的一种全新事物,而是原有软件形态的延续,无论是 APP、SaaS,还是其他类型的软件。 张森森表示,“ 国外 SaaS 的理念和逻辑与中国不太一样,更强调结果( result )和集成( integration ),注重整体集成度。特别是在北美、欧洲等地区的企业,更倾向于使用成熟的 SaaS 产品,很少自行研发,因此他们的接口基本都是通用的。” “ 在这种情况下,国外在做 Agent 案例时更多考虑如何使用成熟的 API 协议,比如将 MCP、A2A 协议与现有的 ERP、CRM 进行集成,这对于他们而言成本相对较低。” “ 国内软件生态更多是企业自研,而且企业与企业之间的协议差异很大,甚至同一企业内部的协议都可能不统一,数据打通难度极高。在这种复杂环境下,很难做出标准化、可复制的企业 Agent。即使在 A 企业验证成功,迁移到 B 企业时也很难快速部署。所以可复制性和大规模扩展性在国内 ToB Agent 的发展中被严重抑制,这是目前的关键制约因素。” “ 这种情况下,企业很多时候不得不重复造轮子。” “ 目前来看,只有方法论层面的东西是可复制的,比如流程设计思路、Agent 架构方法论等。但真正落地到企业使用层面,差距依然很大。” 既然各家企业都需要大量做自研,自然大概率会走向全栈型或通用型方向,很难推出在垂直场景中做出有突出竞争优势的产品。“
张森森表示,“ 国内 B 端用户情绪冷静,原因在于 B 端和 C 端用户诉求完全不同。企业采购强调 ROI 要明确,流程必须可控,功能要能管控。而通用 Agent 的案例往往任务定义模糊、场景识别度低、价值难以量化,所以很难支撑持续付费。” “ 现在 B 端的通用型 Agent 多半是销售包装出来的。你会看到很多号称‘企业端 UI’、‘企业教育智能体’等,但真正拿到企业流程里用时,问题就暴露出来:性能稳定性不足、合规性不过关、可追溯性差。” “ 真正能活下来的,一定是垂直+深度集成 的方案。既要利用 Agent 的灵活性,又要在某个行业里做到合规,同时结合企业的需求与机制,这样才能真正落地。” 王显表示,“ 但相比国外,国内做垂直Agent是很困难的。垂直Agent要深耕某个领域做大做强,在国内很难搞,因为要穿越各种壁垒去获取数据,但国内金融、医疗、政务等行业的数据壁垒很高,合规审核很严格和复杂,即便企业愿意开放数据也要经过多次审批和脱敏。” 付瑞吉表示,“ 在国内获取高质量的垂直数据面临诸多障碍,比如高质量医疗数据分散于医院而无法共享。”在与多位行业内医疗 AI 专家沟通时,经常提到的最大痛点就是数据隔离。 王显继续说道,“ 所以,国内大模型的训练速度就比国外要慢。” “ 相比之下,国外很快就开始构建垂直 Agent。垂直领域的初创公司就可以直接使用 OpenAI 这种公共 API,但国内只能私有部署大模型,速度就进一步慢下来。” “ 甚至可以说,国内模型厂商现在都主推的开源和轻量化大模型的策略,其实刚好是适应了国内的特有情况。”
“ 更令人担忧的是,大模型发展后期,国内大模型的发展会面临更加严峻的挑战,因为整体数据集质量太差了。”
“ 其次,客户差异、需求差异和定制化成本也比较高。” “ 国内的同一垂直行业的不同企业,具有上述的 ToB SaaS 行业的所有缺陷,没有统一的标准化接口。比如国内的 CRM 系统到底有多少个?随便在网上搜一下,就是成千上万,甚至到了每家公司里面还要再定制,做私有化、二次开发。” “ 而国外的 Agent 或垂直模型只要适配统一的标准化 SaaS,即可覆盖大多数企业的业务场景。在这样的环境下,Agent 的复制性和扩展性要比国内高得多。” “ 第三是大厂作风,国内的行业生态也是封锁的,大厂都倾向于自建。头部企业也是自己做垂直 Agent,不会跟其他公司一起做,使得创业公司很难切入核心的场景,无法接入行业生态。” “ 相比之下,国外其实有很多开放生态与第三方市场的土壤,所以小公司与中小公司是有机会去做某个垂直细分领域来生存的。” “ 最后在商业化周期上,也存在明显差异。垂直 Agent 的特点是落地初期需要长周期的行业积累和客户教育,本质上是 ‘ 慢工出细活 ’。国内投资环境,整体上缺乏耐心,更追求短期回报。这对垂直 Agent 不太友好,因为它们很难在短时间内看到显著的商业回报。” “ 最终,因为 ToB 的场景成本和投入太高,实现的可能性太低,可复制性太低,导致整个中国市场更倾向于做 ToC,而且 ToC 是最容易跟资本讲故事的。” “ 但我看了一堆 ToC 产品,可以说没有一个产品是真正能让人持续付费订阅的。”
|