本期AI服务器供应链周报聚焦于核心算力芯片的交付周期变化、整机制造商的排产情况,以及新一代散热技术对出货结构的影响。过去数周,随着台积电CoWoS产能的持续释放,AI服务器供应链正从“绝对缺货”的紧张状态,逐步转向“结构性供需失衡”。以下是本期供应链核心动态解析。
1. 交付周期缩短,H100/H200流动性改善
近期供应链反馈,NVIDIA H100/H200 GPU的交付周期(Lead Time)已从此前高峰期的8-12个月缩短至3-4个月左右。这主要得益于台积电CoWoS封装产能的持续扩充。据产业链调研,台积电CoWoS月产能已提升至3.5万片以上,并计划在年底前进一步扩产。这使得头部云服务商(CSP)及Tier-1服务器代工厂的GPU到货率显著提升。
2. HBM3e成为供应链新瓶颈
尽管SoC核心产能缓解,但AI服务器供应链的瓶颈正在向上游转移。当前,H200及下一代B200服务器对HBM3/3e的需求极为旺盛。SK海力士作为当前HBM3e的主力供应商,产能已被全额预定;美光虽已宣布量产,但良率爬坡尚需时间;三星的HBM3e良率仍面临挑战。HBM的产能限制,正成为制约高端GPU实际出货量的新卡点。
3. AMD MI300系列渗透率缓慢提升
在NVIDIA产能受限的背景下,AMD MI300X/MI300A在供应链中的能见度有所增加。部分二线CSP及区域性云厂商开始增加MI300X的采购比例,但受限于ROCm生态的成熟度及底层算子优化进度,其实际整机组装量仍远低于NVIDIA阵营,目前约占AI GPU整体出货量的低个位数百分比。
1. Q3出货量环比大增,代工厂产能满载
受GPU到货量增加驱动,Q3全球AI服务器出货量预计环比增长15%-20%。中国台湾主要ODM厂商(广达、纬创、富士康、英业达)的AI服务器产线均维持满负荷运转。值得注意的是,由于AI服务器单体价值量极高(单台8卡机型均价超20万美元),ODM厂商对传统通用服务器的排产意愿显著降低,导致通用服务器出货量承压,供应链资源正加速向AI算力倾斜。
2. 液冷服务器出货占比突破30%临界点
随着单机柜功耗突破40kW甚至向100kW演进,传统风冷已触及散热物理极限。本期供应链最显著的变化是,液冷(尤其是冷板式液冷,DLC)服务器的出货量占比在新增订单中正式突破30%拐点。
3. 800G光模块与AI服务器配比趋于稳定
在组网层面,当前万卡集群的GPU与800G光模块的配比已稳定在1:1.2至1:1.5之间。随着AI服务器出货放量,800G光模块在供应链中的交付周期依然较长,部分高端型号(如单模硅光方案)仍需等待8-10周,这在一定程度上拖慢了部分大型集群的完整点亮进度。
1. 特定区域市场:H20成为绝对主力
受地缘政策影响,中国区AI服务器供应链呈现出独特的动态。NVIDIA H20目前是国内渠道交投最活跃的AI芯片。随着H20产能释放,国内渠道商拿货难度下降,但终端议价空间也在缩窄,渠道利润逐渐从“硬通货溢价”转向常规的组装与服务增值。部分集成商开始推出“H20+国产交换机+风冷”的高性价比一体机方案,以抢占下沉市场。
2. 二手GPU市场出现结构性分化
随着部分早期部署H100的CSP进行硬件迭代或资产重置,二手市场开始出现少量A100/H100算力卡。然而,由于NVIDIA对二手卡迁移至特定区域的合规审查趋严,加之H100本身算力生命周期仍长,二手H100在合规区域的流通依然紧俏,价格仅比新卡低10%-15%;而A100价格则出现明显回落。
未来几周,供应链的焦点将集中于NVIDIA Blackwell架构(B200/B100)的试产进度与良率表现。B200所采用的双die封装及高达1000W的TDP,将对CoWoS产能及液冷散热提出更严苛的考验。建议渠道商及运维方密切关注HBM产能分配动向及液冷基础设施的交付周期,提前进行产能锁定与供应链风险对冲。同时,随着AI服务器单点故障对业务影响呈指数级放大,高可用运维与备件供应链的响应速度,将成为下一阶段渠道竞争的核心壁垒。