[最新商情]文章ID:3555  分类查看经销商
会员登录 | 经销商申请 | 审核状态查询 | 渠道商情 | 渠道乱炖 |首页
IT渠道网
  大类 小类  
当前:全部   [更改地区]
首页 >>最新商情        DELL服务器 工作站 机柜 储存       供应三菱大屏幕灯泡
iTechClub广告

AI服务器供应链动态周报:GPU产能瓶颈渐缓,液冷服务器出货量激增

2026-05-11 09:00:48  发布:ai-generator  来源:ai-generator

AI服务器供应链动态周报:GPU产能瓶颈渐缓,液冷服务器出货量激增

本期AI服务器供应链周报聚焦于核心算力芯片的交付周期变化、整机制造商的排产情况,以及新一代散热技术对出货结构的影响。过去数周,随着台积电CoWoS产能的持续释放,AI服务器供应链正从“绝对缺货”的紧张状态,逐步转向“结构性供需失衡”。以下是本期供应链核心动态解析。

一、 GPU供应动态:CoWoS产能释缓,HBM成新卡点

1. 交付周期缩短,H100/H200流动性改善

近期供应链反馈,NVIDIA H100/H200 GPU的交付周期(Lead Time)已从此前高峰期的8-12个月缩短至3-4个月左右。这主要得益于台积电CoWoS封装产能的持续扩充。据产业链调研,台积电CoWoS月产能已提升至3.5万片以上,并计划在年底前进一步扩产。这使得头部云服务商(CSP)及Tier-1服务器代工厂的GPU到货率显著提升。

2. HBM3e成为供应链新瓶颈

尽管SoC核心产能缓解,但AI服务器供应链的瓶颈正在向上游转移。当前,H200及下一代B200服务器对HBM3/3e的需求极为旺盛。SK海力士作为当前HBM3e的主力供应商,产能已被全额预定;美光虽已宣布量产,但良率爬坡尚需时间;三星的HBM3e良率仍面临挑战。HBM的产能限制,正成为制约高端GPU实际出货量的新卡点。

3. AMD MI300系列渗透率缓慢提升

在NVIDIA产能受限的背景下,AMD MI300X/MI300A在供应链中的能见度有所增加。部分二线CSP及区域性云厂商开始增加MI300X的采购比例,但受限于ROCm生态的成熟度及底层算子优化进度,其实际整机组装量仍远低于NVIDIA阵营,目前约占AI GPU整体出货量的低个位数百分比。

二、 服务器出货量与制造动态:ODM满载,液冷渗透率跨越拐点

1. Q3出货量环比大增,代工厂产能满载

受GPU到货量增加驱动,Q3全球AI服务器出货量预计环比增长15%-20%。中国台湾主要ODM厂商(广达、纬创、富士康、英业达)的AI服务器产线均维持满负荷运转。值得注意的是,由于AI服务器单体价值量极高(单台8卡机型均价超20万美元),ODM厂商对传统通用服务器的排产意愿显著降低,导致通用服务器出货量承压,供应链资源正加速向AI算力倾斜。

2. 液冷服务器出货占比突破30%临界点

随着单机柜功耗突破40kW甚至向100kW演进,传统风冷已触及散热物理极限。本期供应链最显著的变化是,液冷(尤其是冷板式液冷,DLC)服务器的出货量占比在新增订单中正式突破30%拐点。

  • 供应链协同: 广达等ODM已将液冷CDU(冷量分配单元)及快接头作为机柜出厂标配。液冷供应链(如奇、双鸿等散热模组厂)的产能扩充速度直接决定了整机厂的交付能力。
  • 漏液风险管控: 随着液冷规模化部署,供应链对快接头质量及管路密封性的验收标准正急剧提高,劣质液冷组件正被加速出清。

3. 800G光模块与AI服务器配比趋于稳定

在组网层面,当前万卡集群的GPU与800G光模块的配比已稳定在1:1.2至1:1.5之间。随着AI服务器出货放量,800G光模块在供应链中的交付周期依然较长,部分高端型号(如单模硅光方案)仍需等待8-10周,这在一定程度上拖慢了部分大型集群的完整点亮进度。

三、 渠道与市场博弈:H20交投活跃,二手市场暗流涌动

1. 特定区域市场:H20成为绝对主力

受地缘政策影响,中国区AI服务器供应链呈现出独特的动态。NVIDIA H20目前是国内渠道交投最活跃的AI芯片。随着H20产能释放,国内渠道商拿货难度下降,但终端议价空间也在缩窄,渠道利润逐渐从“硬通货溢价”转向常规的组装与服务增值。部分集成商开始推出“H20+国产交换机+风冷”的高性价比一体机方案,以抢占下沉市场。

2. 二手GPU市场出现结构性分化

随着部分早期部署H100的CSP进行硬件迭代或资产重置,二手市场开始出现少量A100/H100算力卡。然而,由于NVIDIA对二手卡迁移至特定区域的合规审查趋严,加之H100本身算力生命周期仍长,二手H100在合规区域的流通依然紧俏,价格仅比新卡低10%-15%;而A100价格则出现明显回落。

四、 后市展望

未来几周,供应链的焦点将集中于NVIDIA Blackwell架构(B200/B100)的试产进度与良率表现。B200所采用的双die封装及高达1000W的TDP,将对CoWoS产能及液冷散热提出更严苛的考验。建议渠道商及运维方密切关注HBM产能分配动向及液冷基础设施的交付周期,提前进行产能锁定与供应链风险对冲。同时,随着AI服务器单点故障对业务影响呈指数级放大,高可用运维与备件供应链的响应速度,将成为下一阶段渠道竞争的核心壁垒。

iTechClub广告
iTechClub广告