本期核心导读
本周AI服务器供应链延续“需求强劲与结构性短缺并存”的态势。核心矛盾依然集中在HBM产能分配、液冷散热组件交付以及国产算力替代节奏上。随着Blackwell架构GPU逐步进入交付周期,供应链上下游正在经历新一轮的适配与产能爬坡;同时,国内智算中心建设带动了国产AI芯片服务器的备货需求,渠道端整机交付周期出现分化。
1. Blackwell架构GPU进入交付预备期,HBM3e成最大瓶颈
本周,核心CSP(云服务提供商)客户已开始接收B200/GB200系统的初步测试样机。尽管台积电的CoWoS-L先进封装产能已在按计划扩充,但供应链反馈,当前B200搭载的8层堆叠HBM3e良率仍处于爬坡阶段,这直接限制了Blackwell架构GPU的量产规模。目前HBM3e的交付周期依然长达40周以上,海力士占据绝大多数首发份额,三星正积极争取第二供应商资格认证。
2. 国产算力芯片备货激增,先进封装产能吃紧
受国内智算中心建设及信创政策驱动,本周国产头部AI芯片(如腾910B等)的拿货需求持续走高。受此影响,国内先进封装产能(特别是2.5D CoWoS同类工艺)极度吃紧,部分国产芯片代工价格出现上浮。渠道端反馈,国产AI服务器整机的订单排期已普遍拉长至12-16周,核心节点主板及高速互联背板供应偏紧。
1. DDR5 RDIMM价格触底反弹,大容量模组需求激增
受AI大模型训练对内存带宽和容量的双重压迫,AI服务器标准配置已全面转向DDR5 6400/5600。本周供应链数据显示,128GB及256GB大容量RDIMM订单量环比增长15%,带动DDR5颗粒现货价格止跌回升。原厂(三星、海力士、美光)正加速将产能向HBM及高利润RDIMM倾斜,消费级DRAM产能受到进一步挤压。
2. 高速网卡与交换机交付周期拉长
在Scale-out网络架构下,400G/800G光模块及InfiniBand交换机的需求持续高位运行。本周渠道端反馈,由于核心交换芯片(Broadcom Tomahawk 5等)供应偏紧,高端三层交换机的交付周期从常规的8周延长至14周左右。同时,支持RDMA的ConnectX-7等高速网卡也出现了结构性缺货,渠道溢价约5%-8%。
1. 液冷组件(CDU与冷板)成最大交付短板
随着单机柜功耗突破100kW,液冷已从“可选项”变为“必选项”。本周供应链监控显示,冷板式液冷的核心组件CDU(冷量分配单元)及高密快接头(UQD)成为新的卡脖子环节。由于快速接头涉及精密加工与防漏液专利壁垒,目前全球产能高度集中,部分AI服务器整机厂因等待液冷组件,导致成品入库率低于预期。
2. ODM基地产能重构,机柜级交付成为常态
传统服务器以“台”为单位交付,而AI服务器正全面转向“机柜级”交付。广达、纬创、富士康等核心ODM厂商本周均表示,正在重构产线,以适应GB200等整机柜的预组装与厂内液冷测试需求。机柜级交付对厂房承重、测试电力及水冷管路提出了极高要求,部分ODM的新产能基地预计将在Q4末才能实现大规模量产。
1. H20服务器渠道溢价缩窄,白牌与品牌竞争加剧
本周,针对国内市场的H20服务器渠道溢价出现缩窄迹象。随着前期备货的H20芯片逐步转化为整机出货,渠道现货供应相对充足,H20八卡整机的渠道利润率从此前的高点回落至正常水平。同时,白牌厂(基于OCP架构)凭借灵活的定制化能力,正在从传统品牌厂(如浪潮、新华三)手中抢夺部分互联网大厂的订单。
2. 运维备件成本显著上升
对于渠道及运维端而言,AI服务器的高故障率及高昂的备件成本开始显现。本周多家IDC运维商反馈,由于GPU节点长期高负载运行,加上液冷系统微漏液风险,AI服务器的现场RMA(退换货)率远超通用服务器。特别是GPU返修周期长、备件价格极高,渠道商在售后维保条款上正变得更加谨慎,智算中心全生命周期运维成本(TCO)面临重估。