机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 345|回复: 0

国产大模型「六小虎」里 至少两家要放弃大模型了

[复制链接]

2万

主题

2万

帖子

17万

积分

超级版主

Rank: 8Rank: 8

积分
176327
发表于 2024-10-11 16:54:49 | 显示全部楼层 |阅读模式
本文由投资界合作伙伴36氪授权发布

2024年,不少曾立下“做中国OpenAI”军令状的模型公司,开始打脸。
据《智能涌现》了解,被称为“AI六小虎”的6家中国大模型独角兽中,已经有两家逐步放弃预训练模型,缩减了预训练算法团队人数,业务重心转向AI应用。
(本文希望重点讨论国内AI公司对“预训练”大模型的路线选择,及其背后的思考与后续侧重点,为了不引起不必要的纷争,遂隐去放弃预训练模型的企业名称。)
赶大模型早集的百度,9月也一度传出“大概率放弃通用基础大模型研发,主要做应用”的消息。即便后续被百度辟谣,但“放弃预训练模型”,已经成了行业的一个转折点。


百度大模型这弱智,这都喂的什么料。
可以说,能让厂商上大模型牌桌的,就是“预训练”。所谓的“预训练(pre-train)”,就好比大模型的基础教育阶段,赋予模型海量而通用的知识,是决定模型性能最关键的阶段,也是模型厂商最核心的技术壁垒。
对于AI行业而言,随着第三方预训练模型的性能提高,应用层企业逐步放弃预训练模型,专注于让模型更懂用户的“后训练(post-train)”环节,是节省算力成本考量下的正常趋势。
2024年8月,硅谷的明星AI企业、角色扮演类应用的典范Character.AI,宣布放弃预训练,转向与第三方模型合作。他们在官方博客中给出的理由是:这使我们能够投入更多资源进行后训练,并为不断增长的用户群体创造新的产品体验。

然而,模型层企业放弃预训练模型,意味着主动走下AGI竞速的牌桌。
更何况,“自研预训练模型”的故事,曾在短短一年间,给这些模型层企业带来丰厚的融资、*的人才,以及市场的声誉。模型公司放弃预训练,戳破了AI技术的泡沫。
就如一位AI从业者对《智能涌现》所评价的那样:
“不少厂商从OpenAI身上得到的不是通往AGI的技术,而是盲目跟随的自信。”


星火大模型平常吹的山响,结果这理解能力。

但对于AI赛道而言,放弃预训练,也不算全然消极的信号。在资金、算力紧缺的当下,现有的大模型厂商,也开始对自身的能力和资源现状,进行了重新评估。
从模型转向应用,意味着在追赶AGI之前,AI公司先选择了活下去。

狂堆参数的Scaling Law,目前是预训练的主流路径,同时也意味着高昂且持续的算力和数据投入。
马斯克曾估算,GPT-5的训练可能需要3万-5万张H100,仅芯片成本就超过7亿美元(约50亿元),几乎是百度一整个季度的净利润。
对于尚未盈利的创业公司而言,继续堆参数炼模型,筹钱首先就是一个难关。
据《智能涌现》了解,随着估值跨上200亿元台阶,国内大模型公司最新的单轮次融资规模在50亿元左右。估值的抬高,也会伴随着融资难度的加剧。
一名投资人告诉《智能涌现》,今年最后一季度,大模型独角兽不会再积极布局融资,“无论是企业还是一级市场,对下一轮融资都保持悲观”。
数十亿元的融资,模型厂商不仅要分摊给持续堆参数的模型训练,还要喂给不断烧钱营销、却盈利能力有限的AI应用产品。
当下,与OpenAI的技术差距仍然难以弥合,国产模型之间的性能,也尚未拉开鲜明的差距。不少国内模型厂商开始借助“数据+场景”的长板,在AI应用上发力,试图率先跑出AI时代的“微信”和“抖音”——就连ToB基因显著的智谱AI和百川智能,也先后推出了“智谱清言”和“百小应”等C端应用。
规模化的AI应用,逐渐代替了模型性能,成为模型厂商留在AI牌桌上的筹码。因此,用户数据,成了模型厂商不得不重视的指标。

《智能涌现》曾报道,月之暗面在B站给出的CPA(用户转化人均成本)报价高达30元左右。而另有知情人士告诉《智能涌现》,如今模型厂商最高的报价,来自于字节跳动的“豆包”,“几乎是Kimi报价的2倍”。
2024年以来投流刷脸的营销打法,让不少模型厂商的营销预算翻了数倍。营销价格水涨船高,但在AI产品差异化程度还不够的当下,砸钱买流量几乎是获客的出路。
一家大模型独角兽的员工告诉《智能涌现》,公司曾在2024年中,中止了AI对话产品在部分社交媒体的投放,“当月获客数据立马变得很难看”。一个月后,公司又恢复了投流。

并不是所有的大模型公司,都能从暂无尽头的烧钱中看到希望。
如今,AI产品所消耗的推理成本,较一年前已经下降了近99%。但不少业内人士反映,模型的训练依然占算力成本的至少7成。
这意味着,放弃预训练模型,是资源紧缺的当下,*性价比的决定。
放弃预训练模型的其中一家独角兽,据多名知情人士透露,自2024年中,整家公司的目标重心已经放在了海外的AI应用产品,以及上市。

为什么在模型和产品中选择舍弃前者保证后者?核心原因还是在于,目前靠大模型本身,没有明晰的变现渠道。
多名从业者对《智能涌现》反映,2024年开启的模型降价潮,并没有提高模型的营收能力。
“模型API的降价,本质上是为了让客户体验模型能力,并转化成本地部署等高净利业务的付费。”百度大模型的大客户经理对《智能涌现》表示,“但表现没有达到预期,今年上半年大部分模型厂商的ToB业务,营收是砍半的。”
他记得,在一款模型宣布免费后,后台涌入了不少“白嫖”的开发者,“有一个做研究的开发者,一天用的Token数,就占了所有用户的60%。”


模型付费转化的失败,很大程度是因为,被称为“价格屠夫”的开源模型更强了。
随着Llama 3.1、Mistral Large 2、DeepSeek V 2.5等一系列开源模型,性能已经达到了叫板GPT-4,甚至GPT-4o的程度。
相对地,闭源模型的竞争力正在被削弱。“付费能力高的企业,一般有自己的技术团队,可以基于开源模型直接做开发。”上述大客户经理表示,对于技术能力不足的企业而言,“开源模型影响的是客户对模型价格的心理预期。” 百度李艳红自己拉的屎,含着泪也要舔干净。
一个典型案例是,2023年Llama 2发布后,某大模型独角兽接到的客户报价,直接砍了一个“0”。
模型变现能力不足,意味着当下模型厂商的现金流,几乎只能依靠融资,以及能够快速找到PMF(产品-市场匹配度)的AI应用。

但如今,能为模型厂商吸引到融资的,除了漂亮的用户数据,只剩下跃升的模型性能。
一名投资人告诉《智能涌现》,模型厂商谁能先把o1(OpenAI最新模型)的能力追平,一级市场还是会为其小沸一番。
但2024年,不少大模型厂商,已经卡在了技术的瓶颈。
GPT-4后,大模型技术的发展已经进入了深水区。9月,前OpenAI首席科学家Ilya Sutskever——他曾将Scaling Law成功使用在ChatGPT等关键模型上——在宣布成立新公司SSI时直言:“每个人都只说Scaling假设。但每个人都忽略了一个问题:我们到底在Scaling什么?”

大语言模型的迭代速度变慢、多模态仍处于攻坚早期,是模型赛道的现状。“GPT-4之前,OpenAI有公开的详细技术报告,大家还能对着‘抄’。之后技术报告不公开了,国内厂商的参考答案也没了。”一名从业者表示,“更何况,OpenAI的答案也不一定正确。”太对了,GPT-4o也答不对电机磁极对数与同步转速的关系计算式。

一群失去方向的大模型公司,需要在技术的不确定性中,重新找到稳定性。
放弃预训练的模型厂商,抓住的是尚有盈利潜力的AI应用。多名知情者都对《智能涌现》表示,其中一家厂商的某款海外AI生产力工具产品,贡献2024年以来的大部分营收,“公司现在70%的人力都在做产品”——而这款出海应用的底层模型,也逐渐从自研的,换成了GPT-4和GPT-4o。
而另一家在国内靠ToB起家的模型公司,也在2024年中推出了生产力和娱乐相的C端AI应用。

剩下仍在坚持预训练的厂商,则开始在技术上降本增效。
一家模型独角兽的员工告诉《智能涌现》,今年公司在算力采购上很克制,计划先采取优化训练框架等方式,降低模型的训练成本。
再比如,OpenAI最新模型o1所采用的Self-play(自博弈)策略,能够在不增加参数的情况下提升模型性能,也成了不少模型厂商低成本训练模型的稻草。
对于整个AI行业而言,放弃预训练模型,并不是一个消极的信号。拾象科技CEO李广密近期也公开对外表示,未来80%的公司会放弃预训练,硅谷逐渐形成的共识是RL(强化学习)是接下来的突破点,能在控制算力成本的情况下,提升特定参数模型的能力。
这意味着从技术狂热重回理性后,厂商对技术范式和行业资源,开始重新思考和整合。


点评
预训练都训练不好的大模型,还能指望它能强化学习,自学成材吗。
归根到底就是人能进步,是理性认识与感性认识交融循环的产物。
大模型完全是闭着眼睛,关在小黑屋里。
对世界完全无感,所有的知识点完全靠人类告诉它,它怎么能认清世界呢。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2024-12-24 07:45 , Processed in 0.103722 second(s), 21 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表