报告周期: 2023年X月X日 - X月X日
核心摘要: 本周AI服务器供应链呈现“需求持续爆棚、供给结构性分化”的典型特征。NVIDIA H20系列在国内市场交期有所缩短,但H200及下一代B系列芯片因CoWoS封装产能瓶颈,全球供应依然吃紧。受云厂商CapEx强劲驱动,Q3全球AI服务器出货量预估环比增长超15%,但核心组件(如HBM、高速光模块)的错配问题仍在制约实际交付规模。
本周GPU供应端呈现出明显的“代际分化”与“区域分化”特征:
随着NVIDIA针对中国市场的特供版GPU H20产能爬坡,本周国内渠道端H20的交期已从此前的12-16周缩短至8-10周左右。部分一级代理商甚至出现了少量现货。受此影响,H20单卡渠道报价较上月环比微降约3%-5%。然而,这种“宽松”是相对的,大客户(如头部互联网大厂)的集采依然占据了绝大部分配额,中小型渠道商拿卡仍需搭配低毛利的通用服务器进行“搭售”。
全球范围内,H200及下一代B200/GB200的需求远超预期。本周供应链核心痛点依然在台积电的CoWoS封装产能上。尽管台积电已加速扩充CoWoS-L产能,但B系列芯片采用的掩膜版尺寸更大、良率爬坡较慢,导致NVIDIA向下游ODM厂商发出的B200实际出货量仅达原计划的60%-70%。
本周多家ODM厂商反馈,即便拿到GPU裸片,HBM3e内存的供应不足依然导致整卡组装延迟。SK海力士作为当前HBM3e的主力供应商,产能已被NVIDIA包圆;美光虽宣布量产,但实际放量需待Q4;三星良率尚未完全达标。HBM的短缺直接拉长了高端AI服务器(如GB200 NVL72机柜)的交付周期。
受北美四大CSP(云服务提供商)及国内字节、腾讯等大厂强劲CapEx驱动,Q3 AI服务器出货量正迎来显著修复:
根据供应链最新摸底数据,Q3全球AI服务器(搭载NVIDIA A/H/B系列及AMD MI300)出货量预估将突破18-20万台(按标准8卡机型折算),环比Q2增长15%-20%。广达、纬创、富士康等头部ODM产能利用率已拉满,产线正从通用服务器向AI服务器加速倾斜。
本周值得注意的是“组件错配”现象。部分ODM反映,当前GPU卡与800G/1.6T高速光模块、高阶交换机(如Quantum InfiniBand系列)的到货节奏严重不同步。往往GPU主板已组装完毕,却因缺光模块而无法整机交付,导致库存周转天数增加。
随着单机柜功耗从40kW向100kW+(GB200 NVL72)跃升,冷板式液冷已成为本周供应链交付的绝对主流。ODM厂商反馈,目前新下单的AI服务器项目中,液冷渗透率已超过70%。冷板与快接头(UQD)的供应商(如维谛、奇、双鸿)产能极度紧绷,交期拉长至16周以上,成为除GPU外的第二大交付瓶颈。
在国内信创及自主可控政策驱动下,本周华为腾910B的交付量显著提升。多家服务器整机厂(如超聚变、华鲲振宇)基于910B的AI服务器已实现规模化交付。虽然单卡浮点算力与H100仍有差距,但在集群互联与通信优化后,910B在千卡规模下的大模型训练效率已达到H100的70%左右,成为国内大模型厂商的“平替”首选。
受H20大量到货及国产算力池集中交付影响,国内算力租赁价格本周继续承压。8卡H20裸金属租赁价格已跌破6万元/月,较年初高点回落超30%。部分中小算力中心为回笼资金,甚至出现短期“甩卖”算力的情况。但H100/H800集群由于稀缺性,租金依然坚挺,市场呈现明显的两极分化。