编制日期:2024年6月15日
覆盖周期:2024.6.8 - 2024.6.14
核心摘要:本周AI服务器供应链延续“算力核心紧缺、配套组件提速”的分化态势。NVIDIA H20在国内渠道交期有所缩短,但HBM3e及CoWoS先进封装产能依然是全局瓶颈;液冷散热组件需求呈爆发式增长,CDU(冷量分配单元)成为新增交付卡点;网络端800G光模块进入规模化交付期,交换机端口供给出现结构性紧张。
1. NVIDIA H20渠道交期微调,B20预热启动
本周国内渠道反馈,NVIDIA特供版H20服务器的交付周期从此前的12-16周微缩至8-12周,主要得益于台积电CoWoS产能的逐步释放。价格方面,渠道溢价从峰值的30%回落至15%左右。此外,针对中国市场的下一代合规芯片B20已开始向部分头部CSP(云服务商)进行前期技术沟通,预计Q3末送样,供应链正在评估后续备货可能。
2. HBM3e供需错配加剧,SK海力士产能全开
当前AI服务器最大的供给瓶颈已从GPU核心转移至HBM内存。本周行业数据显示,SK海力士HBM3e产能已全线满载,且绝大部分被NVIDIA包揽;美光虽然宣布量产HBM3e,但实际规模化上车仍需等到Q4。受此影响,部分原计划Q3交付的定制化高端AI集群面临因HBM缺货导致的延期风险。
3. AMD MI300X产能爬坡,加速渗透电信与政企市场
AMD MI300X本周在渠道端活跃度提升,部分OEM厂商反馈MI300X平台的整机出货量环比增长约20%。尽管在生态成熟度上仍逊于CUDA,但在国内部分对合规性及性价比敏感的政企及运营商集采项目中,MI300X正成为重要的“平替”方案。
1. 液冷渗透率飙升,CDU与快接头成为新卡点
随着单机柜功率密度突破50kW,冷板式液冷已成为AI服务器标配。本周供应链预警显示,虽然冷板(Cold Plate)产能相对充足,但CDU(冷量分配单元)及高可靠性快接头由于技术壁垒较高且验证周期长,已出现严重的供需脱节。部分头部液冷厂商的CDU订单已排至2025年Q1,严重制约了整机柜的交付节奏。
2. 800G光模块规模化交付,交换机端口出现结构性短缺
伴随万卡集群组网需求,800G光模块本周进入密集交付期,中际旭创等头部厂商产能利用率超120%。然而,网络侧的瓶颈向上游转移,配套的51.2T核心交换机由于Broadcom Tomahawk 5芯片供给优先级问题,端口交付量未能匹配光模块的增速,导致部分超算中心面临“有卡无网”的尴尬局面。
3. PCB与电源管理IC供需趋于平稳
高层数(24-30层)、低损耗HDI PCB板此前紧缺的状况有所缓解,国内头部PCB厂商产能释放符合预期。此外,针对高算力芯片的Multi-phase电源管理IC(PMIC)交期也稳定在10周左右,不再是核心交付阻力。
1. 台积电CoWoS扩产按计划推进
台积电本周确认其先进封装产能扩充计划如期进行,预计年底CoWoS月产能将提升至4万片以上。但鉴于NVIDIA Blackwell架构(B200/GB200)对封装面积和精度的要求大幅提升,新增产能将被新架构迅速消化,对现有Hopper架构的缓解作用有限。
2. ODM整机交付两极分化
广达、纬创、富士康等ODM大厂反馈,标准化8卡AI服务器(如H20/H800基线型号)组装产能充足,交付周期缩短;但定制化GPU基板、搭载最新NVLink5.0互联的整机柜方案,由于工程验证(EV/DVT)周期长,良率爬坡较慢,整体交付仍存在不确定性。
1. 合规审查趋严,渠道库存结构性调整
美国商务部本周重申对AI芯片出口管制的严格立场,导致国内渠道商在备货策略上更加谨慎。部分中小型集成商开始清退高风险囤货,转向合规边界清晰的H20及国产算力方案。此外,针对GPU利用率的监控要求,使得CSP在采购时更倾向于采购预装监控固件的“白盒”服务器。
2. 国产算力替代加速
受外部不确定性影响,本周国内三大运营商及部分国有大行的新一期集采中,腾910B等国产AI服务器中标比例显著提升。供应链端,国产算力平台的底层固件及集群网络调优仍需较长磨合期,但整体交付确定性优于受制于人的NVIDIA特供线。
---
注:本报告数据基于公开渠道及产业链调研综合分析,仅供IT与渠道决策参考,不构成直接采购建议。