编制日期:2024年6月XX日
本期焦点:CoWoS产能结构性调整、HBM3e供应缺口扩大、国产算力替代加速、液冷散热交付瓶颈
本周AI服务器供应链整体呈现“算力芯片产能紧绷与周边配套加速爬坡”的并行态势。NVIDIA新一代Blackwell架构芯片(B200/GB200)的预热导致HBM3e及CoWoS先进封装产能争夺白热化;同时,随着单机柜功耗突破100kW,液冷散热组件(CDU、快接头)的交期显著拉长,成为除GPU之外制约整机交付的新瓶颈。国内市场方面,受地缘政策影响,腾等国产算力芯片需求激增,本土供应链协同代工产能正在快速释放。
1. CoWoS产能结构性调整,NVIDIA包揽大部分新增产能
本周供应链传出台积电正加速扩充CoWoS-L产能,以应对Blackwell架构芯片的庞大需求。目前台积电月产能已提升至约4万片,年底目标直指5万片以上。但产能增量中超过80%被NVIDIA提前锁定,AMD MI300系列及Intel Gaudi3的代工排期受到一定挤压。值得注意的是,CoWoS产能短缺正从晶圆端向基板端传导,ABF载板(Area Bump Flip Chip)的交期本周已从12周延长至16周。
2. HBM3e成绝对瓶颈,SK海力士主导地位稳固
AI服务器内存配置正向HBM3e全面切换。本周供应链反馈,24GB和36GB容量的HBM3e良率爬坡不及预期,导致NVIDIA B200及H200的出货量受限。SK海力士依然占据HBM3e超过80%的市场份额,美光虽已通过验证,但量产规模尚小;三星则因初期良率问题,份额提升受阻。预计HBM的供需失衡将至少延续至2025年Q1。
1. 液冷散热组件交付告急,CDU与快接头成“卡脖子”环节
随着单柜功耗从40kW跃升至100kW以上,冷板式液冷成为刚需。本周渠道反馈,由于冷板加工精度要求极高,且CDU(冷量分配单元)核心泵阀依赖进口,液冷整机的交付周期已从8周拉长至14-16周。特别是具有防漏液自封功能的快接头,因专利壁垒和产能集中,交期甚至超过20周,严重制约了ODM厂商的整机组装进度。
2. 高速互联网卡与交换机芯片供不应求
在万卡集群组网需求下,800G光模块和InfiniBand交换机(Quantum X800)需求持续高涨。本周博通(Broadcom)的Tomahawk 5交换芯片交期依然维持在30周以上。此外,由于多模态训练对节点间通信延迟极度敏感,NVIDIA ConnectX-7/8网卡(特别是带DPU功能的型号)在现货市场溢价严重,渠道拿货需搭配其他滞销组件。
3. 服务器PCB与CCL材料升级加速
AI服务器主板及OAM/UBB载板对覆铜板(CCL)的介电常数和损耗因子提出更高要求。本周头部CCL厂商(如台光、联茂)表示,极低损耗材料产能已被大厂锁定,常规服务器PCB产能正向AI服务器倾斜,导致部分通用型服务器主板交付出现轻微延迟。
1. ODM/OEM排期分化,白牌与品牌争夺产能
本周台湾代工大厂(广达、纬创、富士康等)的AI服务器产线满载。由于NVIDIA优先保障核心CSP客户(如Meta、微软、谷歌),二线云厂商及企业级客户的H20/H200整机排期被延后。国内市场,基于H20的8卡整机本周渠道报价维持在115万-120万人民币之间,价格企稳,但现货依然紧缺,需全额预付款锁定产能。
2. 国产算力服务器需求爆发,交付周期缩短
受信创政策及美国新一轮出口管制预期影响,国内金融、电信及政务行业对国产AI服务器采购意愿强烈。本周基于腾910B的整机交付周期从之前的4个月缩短至2.5个月左右,本土封测及主板组装供应链已初步跑通,产能爬坡顺利。预计Q3国产AI服务器出货量将迎来环比50%以上的增长。
1. 旧机房改造供应链滞后
众多企业试图将传统风冷机房改造为液冷机房,但本周供应链反馈,由于液冷管路定制化程度高,且老旧楼宇电力增容设备(如高压直流电源、UPS)缺货,机房改造的EPC(工程总承包)周期已从3个月拉长至6个月以上。
2. 碳化硅(SiC)电源模块紧缺
AI服务器单机电源功率从3kW向5.5kW/8kW演进,SiC MOSFET需求激增。本周意法半导体和英飞凌的SiC模块交期拉长,部分电源厂商被迫采用IGBT替代方案,导致整机电源转换效率下降约2%,运维电费成本(OPEX)将显著上升。