报告周期: 2023年X月X日 - X月X日
核心摘要: 本周AI服务器供应链呈现“需求持续高企、供应结构性分化”的态势。NVIDIA H20系列在中国区交期逐步缩短,但H200/B200等高端核心算力卡依然面临CoWoS先进封装产能的严格制约。服务器整机出货量受GPU到货节奏影响,环比微增,其中液冷机型出货占比首次突破30%大关,成为供应链重构的重要风向标。
本周GPU供应链的核心逻辑依然是“先进封装定产能,区域政策定结构”。
受益于NVIDIA针对中国特供版GPU的稳定供货,本周H20在渠道端的现货流动性明显改善。据核心分销商反馈,H20的交期已从此前的8-12周缩短至4-6周,部分大批量订单甚至可实现现货交付。受此影响,H20单卡渠道溢价已从高峰期的20%回落至5%-8%区间。然而,H20的充足供应并未完全缓解国内算力焦虑,互联网大厂及智算中心对算力密度的要求,使得8卡H20服务器的实际集群效能仍面临网络互连瓶颈的考验。
面向全球主流大模型训练的H200及下一代B200 GPU,供应依然极度紧张。本周供应链传出的核心信号是:台积电的CoWoS-L封装产能虽有扩产动作,但良率爬坡速度低于预期,这直接卡住了NVIDIA高端GPU的出货咽喉。目前H200的订单交付周期仍维持在12周以上,而B200的早期产能几乎已被超大规模云服务商(CSP)如微软、Meta、谷歌等瓜分殆尽,渠道商及二线客户拿到B200现货的时间大概率将推迟至2024年Q3末。
AMD MI300X本周在供应链中的能见度有所提升,部分OEM大厂已开始小批量交付基于MI300X的AI服务器。尽管在软件生态(ROCm)上仍与CUDA存在差距,但在性价比及HBM3e显存容量的驱动下,部分CSP客户已开始将MI300X作为非核心训练及大规模推理集群的算力补充。
本周全球AI服务器整机出货量环比小幅增长3.5%,出货结构正发生深刻变化,CSP自研定制机型的比例快速上升,对传统品牌厂形成挤压。
以广达、纬创、富士康为代表的台湾ODM大厂本周表示,AI服务器出货量主要受限于上游GPU的按月拨付量。目前“主板等卡”仍是常态。值得注意的趋势是,CSP客户越来越倾向于采用OCP(开放计算项目)架构的定制化主板(如UBB架构),这要求ODM具备更强的定制研发与快速打样能力。本周广达AI服务器产线利用率维持在90%以上,预计Q2末将迎来新一轮出货高峰。
本周供应链最显著的变化是液冷AI服务器的出货占比正式突破30%拐点。随着单机柜功率密度从传统的30kW向100kW+跃升,传统的风冷散热已从物理上失效。目前CSP新增的A800/H800/L40S集群几乎100%要求冷板式液冷,而B200机柜(如GB200 NVL72)则全面转向液冷。这一转变正在重塑供应链价值分配:冷板、快接头(QD)及CDU(冷量分配单元)供应商的订单能见度已排至年底,且毛利率显著高于传统机构件。
随着AI服务器集群规模扩大,网络不再只是附属,而是决定算力效率的核心。本周供应链显示,800G光模块(尤其是SR8和DR8规格)已进入规模化交付阶段,与高端AI服务器形成1:2至1:4的配比出货。同时,基于PCIe 6.0和NVSwitch的机柜级交换架构正在加速替代传统的ToR(机柜顶部)交换架构,这直接推高了单台AI服务器的BOM(物料清单)成本中网络组件的占比。
受H20大量到货影响,国内单P推理算力的租赁价格本周出现约10%的下滑;但基于A100/H100原生集群的高端训练算力依然一卡难求,租赁价格保持坚挺。渠道商正从单纯的“倒卖硬件”向“提供集群交付与运维服务”转型,以提升客户粘性。
多家渠道集成商本周反馈,当前AI服务器供应链最大的痛点已不仅是“买不到卡”,而是“机房放不下”。传统IDC机房的市电容量(单机柜通常仅5-10kW)和楼层承重无法满足单柜40kW以上的AI服务器部署需求。部分客户在服务器到货后,因机房改造延期,导致设备在仓库积压1-2个月,这为渠道商的资金周转带来了巨大压力。