本期核心导读
本周AI服务器供应链延续“高需求与紧博弈”的基调。Nvidia Blackwell架构芯片预热带动上游高频高速连接器及HBM3e备货潮;HBM产能依然是决定GPU出货量的绝对咽喉;国内市场方面,H20系列服务器订单量显著回升,同时液冷散热因高密度算力需求进入落地加速期。以下是本周供应链各环节核心动态解析。
1. GPU与先进封装:CoWoS产能持续扩充,B200带来线缆新增量
本周台积电(TSMC)释放信号,针对CoWoS先进封装的产能扩充进度符合预期,月产能预计将在年底突破4万片。然而,当前H100/H200的交付周期虽有缩短,但依然维持在8-12周。值得注意的是,随着Nvidia Blackwell架构(B200/GB200)的预热,供应链正经历从PCB基板向高速铜缆连接的架构切换。GB200采用的NVLink 5.0互联技术,使得内部高速铜缆及连接器成为新的供应链瓶颈,相关上游厂商(如安费诺等)的产能已被预订至2025年Q1。
2. 存储与HBM:SK海力士独大,美光加速追赶
HBM3e依然是本周供应链最核心的卡脖子环节。目前SK海力士占据HBM3/HBM3e绝对主力份额,其产能已被Nvidia全盘包揽;美光本周宣布其HBM3e已开始量产出货,旨在抢占部分第二梯队云厂商的订单;三星则因良率问题,在核心客户的验证进度中略显滞后。受HBM产能上限制约,当前AI服务器整机交付量仍无法完全释放,预计此状况将持续至Q3末。
1. 主板与机柜制造:高层数PCB需求激增,OEM/ODM加速产线切换
受AI服务器内部高速信号传输需求拉动,28层以上、极低损耗的高阶HDI PCB板需求本周持续攀升。国内头部PCB厂商(如沪电、深南)相关产线满载。在整机制造端,广达、纬创、富士康等代工厂正加速将传统通用服务器产线向AI服务器产线切换。由于AI服务器内部线束极其复杂(单台GPU服务器内部线缆超2000根),组装良率与效率成为OEM当前重点攻克的工艺难点。
2. 散热与机电:风冷见顶,冷板式液冷进入规模化部署
本周多家数据中心运营商与渠道商反馈,单机柜功率超过40kW的AI集群已完全无法采用传统风冷,冷板式液冷成为当前交付的绝对主流。供应链端,CDU(冷量分配单元)与冷板组件的交付周期本周出现小幅延长(约增加1-2周),主要受限于快接头及内部高精度流道部件的产能爬坡。此外,浸没式液冷虽然在超算中心有零星落地,但因运维成本与机房改造难度,在商业数据中心仍处于观望期,未形成规模化的供应链拉动。
1. 国内渠道动态:H20服务器订单激增,交付期拉长
受国内大模型厂商及智算中心建设刚需驱动,本周基于Nvidia H20芯片的AI服务器渠道订单量显著上升。目前H20整机的渠道报价趋于稳定,但受上游GPU分配及HBM供应影响,实际交付周期已从初期的4周拉长至8-10周。部分核心代理商本周开始采取“配额制”销售,即搭配部分通用服务器或存储设备出货。
2. 国产算力替代:腾910B生态加速构建,供应链良率稳步提升
在信创及国产化政策驱动下,华为腾910B系列服务器本周在政企及运营商渠道的招标中表现活跃。供应链传来的积极信号是,910B相关先进封装及国产HBM替代方案的良率本周均有小幅提升,整机交付能力较Q1有所改善。围绕腾体系的固件、操作系统及集群网络(RoCEv2)的适配优化,成为当前国产算力渠道商的核心增值服务点。
3. 白牌 vs 品牌:超大规模云厂商自研比例扩大
本周市场调研显示,北美Top 4云厂商(CSP)在AI服务器采购中,自研架构(白牌/ODM直供)的比例已超过60%。这严重挤压了传统品牌厂商(如Dell、HPE、联想)在海外高端市场的利润空间。传统品牌厂正被迫转型,将重心转移至提供“全栈液冷集群解决方案”及“边缘AI推理服务器”以维持毛利率。
本周美国商务部工业与安全局(BIS)释放了可能进一步收紧AI芯片出口管制的信号,针对中国市场的“特供版”芯片(如H20/L20)未来是否会被列入限制清单成为渠道商最大的心理隐忧。受此影响,部分国内大厂开始采取“长短单结合”的策略,增加现货囤积,同时要求供应链提供更灵活的违约条款。此外,受地缘政策影响,部分台系ODM厂商正加速在墨西哥、越南等地的产能布局,以规避潜在的关税及原产地规则风险。