报告周期: 2023年X月X日 - X月X日
核心观点: 本周AI服务器供应链整体呈现“需求持续狂飙,瓶颈逐步转移”的态势。GPU核心算力交付趋于平稳,但HBM(高带宽内存)及CoWoS先进封装产能接棒成为最大卡点。同时,随着单机柜功率密度突破临界点,液冷散热组件与高压电源供应链进入紧急拉货期。
本周,NVIDIA H200 GPU的渠道放货量环比增加约15%,头部CSP(云服务提供商)客户开始规模接收H200服务器集群。然而,供应链反馈显示,H200搭载的141GB HBM3e内存目前良率仍处于爬坡阶段,SK海力士作为主力供应商占据超80%份额,三星的HBM3e虽已通过部分客户验证,但实际放量贡献有限,导致H200整机交付周期仍维持在8-12周。
针对下一代Blackwell架构(B200/GB200),台积电(TSMC)本周释出信号,正加速扩充CoWoS-L产能。据渠道调研,台积电目标在Q4将CoWoS月产能提升至4万片以上,以应对NVIDIA明年Q1的B200规模交付需求。但业内分析师指出,无基板封装技术带来的翘曲问题仍存在一定良率损耗,实际有效产能仍需观察。
1. HBM内存:供应链的“阿喀琉斯之踵”
当前AI服务器供应链中,GPU计算核心的紧缺程度已有所缓解,但HBM已成为新的硬约束。本周市场传出SK海力士正与台积电紧密协商,计划为HBM4引入定制化逻辑层代工,这意味着内存厂商与晶圆代工厂的绑定正在加深。对于渠道商而言,HBM的紧缺直接导致高配版AI服务器(如8卡H200)的拿货难度远高于低配版,渠道溢价主要集中在此。
2. 网络互联:IB交换机结构性缺货
随着万卡集群成为常态,网络互联延迟成为算力瓶颈。本周供应链显示,NVIDIA Quantum InfiniBand交换机(特别是400G NDR系列)仍处于严重配货制状态。部分国内客户转向RoCE v2以太网方案,带动了高端以太网交换机(支持400G/800G)及AOC/DAC高速线缆的拉货潮,核心网络芯片交付周期拉长至20周以上。
1. 液冷渗透率加速跳升
单机柜功率突破100kW已成为AI机房的常态,传统风冷彻底失效。本周,冷板式液冷(CDU与冷板组件)的订单量激增。供应链反馈,快插接头(UQD)作为液冷系统的核心安全件,由于部分国际大厂专利壁垒及产能限制,本周交期已拉长至16周,成为液冷服务器整机组装的卡口。国内液冷管路及冷却液供应商正加速导入二级供应商体系,以缓解交付压力。
2. 钛金级电源与UPS需求爆发
AI服务器的功耗飙升对机柜级供电提出严苛要求。本周,3kW/3.3kW钛金级CRPS电源组件需求强劲,部分电源模块的MOSFET及控制IC出现微小缺口。同时,为应对电网波动对AI训练集群造成的灾难性中断(Checkpoint丢失),高压直流(HVDC)及新型飞轮UPS系统在数据中心侧的招标量环比上涨30%。
1. 国内市场:H20常态化交付,国产算力生态破局
受美国出口管制新规影响,国内渠道本周NVIDIA H20卡及H20服务器已实现常态化交付,交期缩短至4周内,部分渠道商甚至出现轻微库存,价格竞争趋于白热化。与此同时,华为腾910B系列本周在运营商及政务算力中心招标中表现强劲。供应链端,国产AI服务器的PCB及机箱制造已完全本土化,但高速互联芯片及HBM国产替代仍需时日。
2. 白牌与代工:OCP架构重塑服务器格局
受CSP大客户自研芯片(如Google TPU、AWS Trainium)影响,基于OCP(开放计算项目)架构的AI服务器白牌代工份额持续扩大。本周,广达、纬创等台湾ODM厂商表示,其AI服务器机柜级整机组装(Rack-level)能力已成为核心竞争力。为降低整机柜交付的线缆复杂度,铜缆背板及盲插架构设计订单向头部代工厂集中。
免责声明:本报告数据基于公开渠道调研与供应链交叉验证,仅供IT及渠道专业人士参考,不构成投资与采购建议。