|
当一座座占地千亩、日耗千万度电的大数据中心拔地而起,当“算力堆砌—电力供养—规模扩张”的模式被奉为AI产业的圭臬,我们不得不承认,旧AI范式下的大数据中心,早已沦为一个吞噬能源与资本的“算力牢笼”。这种围绕极致算力构建的“供养模式”,正褪去其高科技的光环,暴露出“低效内卷、资源浪费、门槛高筑”的本质——除非甘愿为虚无的算力泡沫支付巨额的冤枉钱,否则,这种模式早已失去了作为未来AI发展路径的价值。
旧AI范式下的大数据中心,本质是一套“竭泽而渔”的算力供养体系。其核心逻辑是“算力决定智能上限”,为了支撑万亿级参数量大模型的训练与运行,为了处理海量无差别的数据,大数据中心必须配备顶尖的超算集群、铺设专用的供电线路、搭建复杂的散热系统。从贵阳的“中国南方数据中心示范基地”到乌兰察布的“草原云谷”,这些大数据中心的背后,是源源不断的电力消耗——一座标准的超大型数据中心,年耗电量可达数十亿度,相当于一座中小型城市的年用电总量。而这还只是冰山一角,除了电力,土地、冷却用水、网络带宽等资源的消耗同样触目惊心。更讽刺的是,这种不计成本的资源投入,换来的往往是“算力过剩”与“数据冗余”的双重尴尬。据相关行业报告显示,多数大数据中心的算力利用率不足30%,大量高端芯片在低负载状态下空转,造成了惊人的资源浪费;与此同时,为了追求“数据越多越好”的目标,海量无标注、无价值的冗余数据被源源不断地灌入数据中心,不仅挤占了存储空间,更增加了模型训练的噪音,反而降低了智能体的决策效率。
这种供养模式的背后,是资本与技术垄断的合谋。大数据中心的建设与运营,需要动辄数十亿甚至上百亿的资本投入,这绝非中小企业或个人所能企及。少数科技巨头凭借资本优势,垄断了算力资源与数据资源,进而垄断了AI技术的话语权。他们通过售卖算力服务、提供模型接口、收取数据授权费等方式,源源不断地攫取垄断红利,而中小企业与个人用户,则只能沦为这些巨头的“附庸”——要么花费巨资购买算力服务,要么被排斥在AI创新的大门之外。这种垄断格局,不仅扼杀了创新的多样性,更让AI技术偏离了“普惠大众”的初心,沦为少数人牟利的工具。更值得警惕的是,这种供养模式正陷入“越扩张越内卷”的死循环——为了维持垄断优势,科技巨头不得不持续投入巨资扩建数据中心、升级算力集群,而这又进一步推高了行业门槛,加剧了资源浪费,最终形成一个“算力泡沫”越吹越大的恶性循环。
“谈智算泡沫就不能只谈算力,它是一个产业链的问题,想让算力用起来,需要把断掉的点串起来,现在这条产业链还并未形成闭环。”一位深耕行业多年的算力供应商首席营销官向虎嗅精辟地指出了当前智算产业的核心症结。 进入2025年上半年,AI领域一个显著的趋势是,曾经被各大AI公司挂在嘴边的“预训练”一词,其热度正逐渐被“推理”所取代。无论是面向广阔的C端消费市场,还是赋能千行百业的B端企业级应用,推理需求的增长曲线都显得异常陡峭。
“不妨做一个简单的推演,”一位行业分析人士估算道,“以目前市场上主流AI应用的体量来计算,如豆包、DeepSeek等为例,假设其每个活跃用户平均每日生成10张图片,这背后所牵引的算力需求,便可能轻易达到百万P级别。这仅仅是图像生成这一单一场景,若叠加文本、语音、视频等多模态交互,其需求量级更是难以估量。” 这还仅是C端用户的推理需求。对于B端用户,推理需求更是海量。华锐智算某高管表示车厂建设智算中心都是万P规模起步,“而且我们的客户中除了大厂,有最多算力需求的就是车厂。” 然而,再将海量的推理需求与算力泡沫联想到一起,故事就显得异常荒谬。为什么这么多的推理需求还是会产生算力泡沫?
某算力供应商表示,像这样海量的推理需求,需要智算服务商通过工程化技术对算力进行优化,比如压缩起跑时间、提高存储量、缩短推理延迟、提高吞吐量和推理精度等等。 不仅如此,上文提到的供需错配问题,还有一大部分是来自于芯片问题。对此,有行业知情人士表示,国产卡和英伟达的差距还是比较大,它们自身表现发展不匀,同一品牌即使堆再多的卡短板依然存在,这就导致了单一集群无法有效完成AI的训练和推理。 这种‘短板效应’意味着,即便通过大规模堆叠芯片来构建算力集群,如果短板问题得不到有效解决,整个集群的综合效能依然会受限,难以高效支撑AI大模型的复杂训练与大规模推理任务。
事实上,算力层面的工程挑战和芯片瓶颈固然严峻,但许多深层次的算力需求未能得到有效满足,其真正的“断点”往往出现在算力层之上的应用生态,特别是L2层(即针对特定行业或场景的)垂类模型的严重缺口。 在医疗产业就有这样一个需要填补的巨大“窟窿”,人才虹吸效应是国内医疗体系里长期被诟病的结构性问题,优秀医生都集中在一线城市的三甲医院里。但当业界寄希望于医疗大模型实现优质医疗资源下沉时,一个更根本的挑战浮出水面:如何构建可信医疗数据空间? 因为想要训练出具备全病程诊疗能力的垂类大模型,数据是关键前提。但问题是,必须要有全病程、全年龄段、全性别、全地域的海量数据才能在大模型里形成知识。而现实是医疗数据开放率不足5%。
某三甲医院信息科主任透露,其医院每年产生的500TB诊疗数据中,真正能用于AI训练的脱敏结构化数据不足3%。更严峻的是,占疾病图谱80%价值的罕见病、慢性病数据,因其敏感性长期沉睡在各医疗机构的"数据孤岛"中。 而像这样的断点无法解决,产业链就无法形成闭环。算力需求自然也就得不到满足,显然,这显然已经远远超出了传统意义上那些仅仅提供“卡和电”的算力基础设施供应商所能独立应对的范畴。
算力业务是国资“十五五”战略高地,智算中心业务正因英伟达 H200 可能的解禁与天量备货陷入前所未有的混乱。 从投资逻辑的坍塌,到商业模式的被动,再到国产化替代路径的阻断,一场万亿级别的算力大洗牌正在重塑市场格局。 国内智算中心行业弥漫着一股前所未有的焦躁情绪。算力短缺对于国产卡来说是“甜蜜的烦恼”,那么近期关于 英伟达 H200 可能放开供应 的消息,则直接将无数国资算力平台的负责人架在了火上烤。 国内算力基础设施建设的绝对主力是国资。为了抢占数字经济高地,多家地方国资和央企平台制定了雄心勃勃的“十五五”规划。
原来的剧本: 投资规模锁定在 3000亿~5000亿 级别,基于算力稀缺的假设,通过重资产投入构建护城河,回报周期清晰,从 N 卡逐步配比过渡到国产卡。 现在的混乱: H200 的变量直接击穿了原有的可行性研究(可研)模型,是否需要重新进行市场预测和可研分析是第一大事?! 一旦 H200 规模化进入中国市场,算力租赁将从“卖方市场”瞬间转为“买方市场”。对于国资负责人而言,最痛苦的不是不投,而是“明年的计划全乱了”。 国资大举进入智算领域,核心商业模式是“以租代建”,为大厂建设算力资源。这个模式得益于大环境的限制,这个模式无形中推高了大厂算力租赁成本,毕竟国内大厂都不缺钱 !
受限于地缘政治和供应链合规性,互联网大厂难以直接持有大规模高性能GPU。国资平台凭借特殊的身份优势,在“桌子底下”操作,通过渠道持有算力资产,再租赁给大厂使用。这种模式虽然灰度,但胜在稳定性高,现金流好。
H200 若变为“明牌”供应,这一逻辑将不复存在: 渠道透明化: 算力业务将从幕后走向台前,国资的“通道”价值值得商榷。 大厂自持化: 互联网巨头拥有充沛的现金流和更强的技术运维能力。一旦供应链放开,它们势必倾向于自持算力资产,而非向国资租赁。 这让国资平台陷入了“无所适从”的境地,失去了最大的算力业务和最稳定的租户,巨额投建的智算中心不仅面临空置风险,更可能沦为单纯的“房东”,彻底失去对算力生态的话语权。 国资最喜欢的事就是固定资产,买地-建idc-买设备 是算力业务三件套标准动作,如果没有算力租赁客户,三件套就只剩下买地+建idc会形成巨大空置! 国资智算中心的规划中,往往强制包含了大比例的国产算力建设指标。其核心逻辑是:“算力短缺 -> 倒逼市场进行国产化适配 -> 形成生态正循环”。 正是因为买不到英伟达,市场才不得不捏着鼻子去适配国产芯片。
现在,如果 H200 突然放开,这个逻辑链条将被瞬间切断: 可研重做: 之前基于“国产替代”的高溢价和高使用率测算完全失效。 生态倒退: 面对性能强劲、生态成熟的 H200,企业迁移到国产算力的意愿将断崖式下跌。 对于那些已经在此前高位建仓国产算力的平台来说,这无异于一场资产层面的“背刺”。
民营大厂在默默盘算如何应对,模型训练公司在欢呼模型训练终于有救了,唯独有一个群体,声音最嘈杂,情绪最激烈,甚至可以说是“骂得最凶”。 目前为止,没有一家国资算力产业链训练的大模型市场上有竞争力,足以说明很多问题! 长期以来,在算力国资平台内部,由于体制机制的特殊性,形成了一种独特的职场生态。
这是一个闭环的负面生态。由于工资相较于互联网大厂缺乏竞争力,难以吸引顶尖的AI架构师和运维专家,导致技术底座薄弱,去的员工也都是追求安逸,打算“养老”的老油条;而“国资”的金字招牌又赋予了部分员工天然的甲方优越感。他们习惯了在政策保护伞下生存,习惯了供应商点头哈腰。 这种“高高在上”并非源于技术自信,而是源于资源垄断和地方保护主义。当H200被禁或受限时,他们手中的国产算力或者是囤积的旧卡就是硬通货。一旦H200放开,市场逻辑瞬间回归——客户只为效率买单,不为身份买单。 当技术差遇上市场开放,原本的“甲方爸爸”瞬间变成了毫无竞争力的“二房东”。这种巨大的心理落差,自然转化为了网络上的戾气和谩骂。、
H200影响最大的,并非是那些本来就买不到卡的小作坊,而是正磨刀霍霍、准备在“十五五”期间大干一场的国资平台,多家国资平台规划十五五投资 3000乃至 5000 亿资金,进行算力全国布局,目前存在更多变数。 按照原本的剧本,国资算力平台的逻辑非常简单粗暴,利用资本优势,通过大规模固投,优先布局国产化市场,在某种程度上形成“倒逼”市场态势,推动大家适配国产化算力。 也就是说,只要我把坑占满了,把国产卡堆满了,不管好不好用,市场没得选,最后只能用我的。这是一场基于“稀缺性”的豪赌。 H200的放开,直接掀翻了这个算盘。如果高性能的N卡唾手可得,或者获取门槛降低,谁还愿意去适配生态尚不成熟、算力利用率低下的国产卡集群?虽然我们国产卡一直在进步,但是还远远没有达到可以走出国门和一线gpu竞争的成熟度!
必须承认,很多地方性的算力国资平台,本质上并没有太高的技术含量。 他们不生产芯片,不开发模型,甚至连高效的调度系统和异构算力管理平台都由第三方外包。他们的核心商业模式就是“买服务器-建机房-租算力”。 在缺芯的时代,这种模式尚能生存,因为它是卖方市场。但H200的涌入,将算力市场重新拉回了买方市场,也将竞争维度从“有没有”拉升到了“好不好用”。 对于本来就缺乏技术积淀的国资平台来说,这无异于雪上加霜。手里囤的国产卡可能面临贬值,新建的集群可能面临空置。当潮水退去,大家发现国资平台不仅没穿泳裤,甚至连游泳都不会。
|