报告周期: 2023年第42周(示例)
核心摘要: 本周AI服务器供应链整体处于“高需求与结构性错配”的博弈期。GPU芯片供应呈现明显的结构性分化,H20系列成为国内市场交货主力;服务器整机出货量环比微增,但受限于核心组件及液冷配套产能,整体交付周期依然拉长。供应链卡点正从单纯的“缺芯”向“缺辅材/缺产能”蔓延。
本周GPU供应态势依然呈现明显的分层现象。全球范围内,Nvidia H100/H200及AMD MI300X的产能虽随CoWoS封装产能的爬坡有所释放,但依然无法填平海外CSP(云服务提供商)的庞大缺口。据渠道反馈,目前H200的交货周期已从高峰期的52周微缩至40周左右,但现货市场溢价依然严重。
国内市场方面,受合规要求影响,H20系列已成为当前AI服务器交付的绝对主力。本周核心渠道反馈显示,H20的供货相对趋于稳定,交货周期已缩短至4-6周,部分大客户订单甚至能实现按月分批交付。然而,L20及L2系列受产能调配影响,本周出现阶段性收紧。值得关注的是,随着H20大规模部署,部分终端客户开始反馈多卡互联下的算力损耗问题,对集群网络架构(如RoCEv2优化)提出了更高要求,这也间接推高了高端交换机及光模块的配单需求。
据供应链调研数据,本周国内AI服务器整机出货量环比小幅增长约3%-5%,但增速低于预期。核心原因在于ODM/OEM代工厂(如富士康、广达、纬创、超微等)的产线正在经历“风冷向液冷”及“单机向整机柜”的转型阵痛。
目前,头部互联网大厂及智算中心客户的新增订单已几乎100%要求液冷散热(冷板式液冷为主,浸没式为辅)。传统风冷服务器制造产线面临订单萎缩,而液冷整机柜的组装对工艺精度(如快接头防漏液测试、盲插节点对齐)要求极高,导致单线产能爬坡缓慢。此外,Nvidia主推的GB200 NVL72机柜架构正在重塑服务器形态,从“U级”向“Rack级”交付转变,使得代工厂需要重构产线与测试流程,短期内制约了规模化出货速度。
本周供应链最显著的动态是核心瓶颈的转移。算力芯片本身的获取难度正在边际改善,但围绕AI服务器的周边关键物料开始出现严重“卡脖子”现象:
在渠道端,本周呈现出两大显著特征。其一,白牌服务器厂商(基于OCP架构)凭借灵活的定制化能力与极具性价比的BOM成本,正在侵蚀传统品牌厂商(如浪潮、新华三、联想等)在互联网大厂的市场份额。白牌厂在JDM(联合设计制造)模式下的响应速度更契合当前AI基础设施快速迭代的需求。
其二,国内算力租赁市场正在经历残酷的“价格战”与洗牌。随着H20集群的大规模上线,基于H20的算力租赁价格已从年中的高位回落约30%-40%。部分缺乏核心客户绑定、依赖短期融资囤卡的小型智算中心面临资金链断裂风险;而拥有稳定政企客户或能够提供从集群搭建到微调全栈服务的头部算力运营商,正借此机会低价整合市场资源。
展望未来四周,供应链将进入关键的“换挡期”。Nvidia下一代B200/GB200的工程样机已陆续送达核心客户进行验证,量产节点逼近。这将迫使整个供应链(从HBM、CoWoS到机柜设计、液冷系统)进行新一轮的产能重构。建议渠道商及终端客户密切关注HBM产能分配动向及液冷快接头国产替代的落地进度,这两大因素将直接决定下半年高端AI服务器的实际交付兑现率。