本期周报聚焦AI服务器供应链最新动态。近期,受核心算力芯片迭代及云厂商资本支出调整影响,AI服务器供应链呈现“结构性分化”与“技术阵痛期”并存的态势。GPU供应从全面紧缺转向结构性错配,而服务器整机出货量则在经历了二季度的短暂修整后,于三季度初迎来翘尾行情。
本周GPU供应端最显著的变化是“结构性紧缺”的加剧,具体表现在主流算力卡的需求分化与新一代芯片的产能爬坡上。
受限于合规要求,国内市场主推的H20系列GPU目前供应相对充足,甚至出现渠道库存积压的迹象。据渠道反馈,由于H20在互联带宽(NVLink)和显存容量上较A100/H100存在代际差距,国内互联网大厂对单卡组网效率存在顾虑,实际采购意愿低于预期。部分分销商为回笼资金,已开始小幅让利去库存,H20价格出现松动。
在海外及非受限市场,H100/H200依然是算力基建的绝对主力。随着台积电CoWoS产能的逐步释放,H100的交付周期已从此前的52周缩短至16-20周左右,但考虑到云厂商(CSP)下半年的强劲集采计划,现货市场溢价依然存在。
Nvidia下一代Blackwell架构B200/GB200芯片已进入试产阶段,但给供应链带来了巨大阵痛。B200采用台积电4NP定制工艺及12层HBM3e,对CoWoS-L封装的RDL(重布线层)中介层提出了极高要求。本周供应链传出的消息显示,B200初期良率爬坡慢于预期,台积电正在紧急调拨先进封装设备以应对。这可能导致B200规模化交付从Q4初推迟至Q4末,进一步加剧了市场对高端算力卡供应的焦虑。
当前GPU交付的最大瓶颈已从晶圆代工转移至HBM及先进封装。SK海力士作为当前HBM3e的主力供应商,产能已被Nvidia包圆;三星电子的HBM3e虽在近期通过了部分客户验证,但良率仍需提升,预计Q3末才能形成有效补充。HBM的紧缺直接锁死了GPU的整体出货上限。
在GPU供应结构性调整的背景下,AI服务器整机出货量在7-8月展现出强劲的复苏势头,ODM/OEM厂商的产能利用率显著回升。
广达、纬创、富士康等头部代工厂近期释放乐观信号。由于Meta、微软、谷歌等超大规模云厂商上调了2024年资本支出指引,并加紧部署H200集群,Q3 AI服务器出货量环比增长有望突破15%。原本预计在Q2出现的“旺季不旺”现象,在Q3得到了修正,整机排产计划已排至年底。
随着Nvidia推进GB200 NVL72机柜架构,AI服务器的出货形态正在发生改变。传统以8卡PCIe或SXM5为单节点的8U机架,正向72卡全液冷机柜演进。这对ODM的机柜级设计、测试及交付能力提出了严苛要求。本周供应链显示,广达与富士康已率先拿到GB200机柜的优先代工份额,预计Q4将有小批量交付,这将显著提升单台服务器的平均出货价值(ASP)。
随着单机柜功耗突破100kW,液冷已从“可选项”变为“必选项”。本周渠道反馈,国内三大运营商及头部互联网企业的新建智算中心招标中,冷板式液冷(LCD)的渗透率要求已普遍超过50%。散热模组厂商如奇、双鸿的液冷订单能见度已延伸至2025年Q1,且由于快接头(QD)和冷头(Cold Plate)等核心零部件存在较高的工艺壁垒,目前处于供需紧平衡状态,交期拉长至12周以上。
渠道生态观察:本周国内算力租赁市场出现分化。拥有H100/H800真实算力池的供应商上架率维持高位,而依赖H20组网的中小算力中心则面临出租率下滑的窘境。此外,受华为腾910B放量影响,国内信创及政企智算中心项目中,国产化算力服务器的中标比例显著上升,对Nvidia特供卡形成了一定挤压。
风险提示:
综上所述,当前AI服务器供应链正处于新旧算力平台交替的深水区。GPU的结构性紧缺与整机出货量的翘尾行情并存,HBM与液冷成为决定最终交付量的胜负手。建议渠道与终端客户密切关注CoWoS产能爬坡进度及B200验证进展,合理规划采购节奏。