核心摘要
本周AI服务器供应链整体呈现“芯片迭代加速、核心组件分化、液冷生态重塑”三大特征。Nvidia GB200架构进入密集验证期,带动HBM3e及高阶PCB需求持续攀升;而传统风冷机型产能逐步释放,部分通用算力服务器交期缩短。渠道端,CSP大厂锁定产能的“虹吸效应”依旧显著,二三线客户获取高端算力卡仍面临配额限制。
1. B200/GB200进入量产前夜,HBM3e仍是最大瓶颈
本周供应链消息显示,Nvidia Blackwell架构B200及GB200芯片已完成主要设计修正,正进行流片后的最终功能与良率验证。预计Q4末至明年初将进入小批量量产。然而,HBM3e内存仍是制约芯片出货的绝对瓶颈。SK海力士目前占据HBM3e绝大部分市场份额,其产能已被大客户长协锁定;美光虽宣布量产12层堆叠HBM3e,但实际良率爬坡尚需时间;三星则因初期良率不达标,本周被传出部分CSP客户将其从首选供应商名单中下调。整体来看,HBM产能缺口预计将延续至2025年中。
2. AMD MI300X产能爬坡,分流部分长尾需求
随着AMD MI300X在各大CSP及部分企业级客户中完成验证,其代工方台积电(TSMC)的CoWoS产能分配正向AMD适度倾斜。本周渠道反馈,部分无法足额获取Nvidia H200配额的云服务商及Tier-2智算中心,正增加MI300X的采购比例,这在一定程度上缓解了单一供应链的压力。
1. GB200机柜重构组装逻辑,ODM壁垒显著提升
GB200 NVL72机柜的推出,正在深刻改变服务器代工生态。传统单节点8卡服务器组装相对标准化,而NVL72涉及72颗GPU与36颗CPU的机柜级液冷互联,对ODM厂商的系统集成、线缆布线及出厂测试能力提出极高要求。本周供应链透露,富士康(Foxconn)与广达在GB200机柜代工份额上处于领先地位,其具备的整机柜液冷测试实验室资源成为核心护城河。而缺乏液冷整机柜交付能力的二线代工厂,面临被边缘化的风险。
2. 交付周期两极分化
目前,H20等合规版风冷服务器交付周期已从巅峰期的16周以上缩短至8-10周,现货池逐步充实;但基于H200/B200的高端液冷集群,从下单到交付仍需14-20周,且需视Nvidia的GPU分货节奏而定。
1. 液冷核心组件(CDU/快接头)供需吃紧
随着单机柜功耗突破100kW,冷板式液冷成为绝对主流。本周供应链预警,液冷系统的核心部件CDU(冷量分配单元)及UQD(快接头)出现结构性短缺。尤其是具有防漏液高可靠性的快接头,由于全球产能高度集中,交期已拉长至12周以上。部分国内服务器厂商被迫调整交付策略,先交付风冷“裸机”,待液冷组件到货后再进行现场改造,这给运维端带来了极大的施工风险与周期不确定性。
2. 800G光模块与铜缆需求共振
在Scale-out网络侧,800G光模块需求持续满载;而在Scale-up网络侧(如NVLink),GB200机柜内部大量采用铜缆背板连接。供应链显示,国内线缆大厂立讯精密及安费诺的高速率铜缆订单已排至明年Q2,铜缆因具备低延迟、低功耗及高性价比优势,正成为AI机房内部互联的新宠。
1. “算力黄牛”溢价缩水,集成服务溢价上升
本周渠道市场出现显著变化:单纯倒卖GPU卡或裸服务器的“算力黄牛”利润空间被大幅压缩,H20等型号的渠道溢价已回落至5%以内。相反,具备“液冷机房改造+集群网络调优+算力调度软件”全栈交付能力的集成商,其综合服务溢价正在上升。客户越来越愿意为“开箱即用的算力”而非“硬件本身”买单。
2. 国内信创智算中心采购趋稳
受政策驱动,国内地方智算中心项目本周密集招标。供应链反馈,以腾910B为主的国产算力服务器采购量稳步上升,带动了国产HBM及先进封装产业链的活跃。同时,部分项目允许“一机多卡”混合部署(如Nvidia L20+腾910B),对渠道商的多生态适配能力提出新要求。
本报告数据基于供应链多方调研,市场瞬息万变,请以实际交易情况为准。