AI服务器供应链动态周报(2024年5月第3周)
核心观点:本周AI服务器供应链延续“紧平衡”态势。Nvidia B200步入小批量试产阶段,HBM3e产能爬坡成为决定整机交付的绝对长板;同时,液冷散热组件(CDU/快接头)出现结构性短缺,而渠道端H100现货价格出现松动,算力市场正经历从“抢卡”到“拼交付与运维”的结构性转换。
核心算力组件:HBM与先进封装博弈持续
本周,核心算力芯片的供应链焦点依然集中在先进封装与HBM内存两大瓶颈上。
- HBM3e产能爬坡缓慢:随着H200及B200的逐步导入,12堆叠HBM3e成为供应链最紧缺的环节。据渠道反馈,SK海力士虽独占当前大部分HBM3e份额,但其良率爬坡速度仍不及终端云厂商的激进预期;三星的HBM3e虽已进入Nvidia验证尾声,但预计大规模放量需待Q3末,短期内HBM仍是决定GPU出货量的“绝对闸门”。
- CoWoS产能扩张提速:台积电持续加速CoWoS-L与CoWoS-S产能扩充,年底月产能预计突破4万片。但值得注意的是,B200采用的CoWoS-L封装技术因引入局部硅互连(LSI),对无尘室等级和RDL(重布线层)工艺要求极高,初期良率波动导致B200实际放量交付大概率将延迟至Q4。
网络与互联:800G光模块进入规模化交付,铜缆背板崛起
算力集群规模从万卡向十万卡演进,网络互联供应链本周呈现两大显著趋势:
- 800G光模块交付放量:主流光模块厂商本周均处于满产状态,800G单模SR8与DR8模块出货量环比增长超15%。供应链端,DSP芯片及EML光芯片的供应有所缓解,但薄膜铌酸锂(TFLN)等新方案因良率问题,产能仍受限。
- 铜缆互联(Copper Cable)份额超预期:Nvidia在NVLink5.0及机柜级架构中大幅提升铜缆使用比例(如Backplane铜背板),以降低功耗与延迟。本周国内高速铜缆线缆及连接器供应商订单激增,224G PAM4高速背板连接器出现排产紧张,铜缆在短距互联中对光模块的替代效应正在供应链端实质落地。
整机制造与渠道:交付周期分化,白牌与品牌暗战
整机端(OEM/ODM)的交付周期本周出现显著分化,渠道库存结构也在发生微妙变化:
- 交付周期“冰火两重天”:H100/H800系列得益于成熟封装,交付周期已从高峰期的52周缩短至12-16周;而搭载HBM3e的H200及下一代GB200机柜,交付周期仍长达36-40周。此外,液冷机型交期显著长于风冷机型,主要受限于冷板与CDU(冷量分配单元)的配套产能。
- 渠道现货价格松动:受国内政策预期及海外云厂商自建算力集群节奏调整影响,本周渠道市场H100 80GB PCIe卡现货均价小幅下探约3%-5%,部分贸易商开始释放库存回笼资金。但SXM架构及整机柜因具备集群组网溢价,价格依然坚挺。
- 白牌服务器份额扩张:CoreWeave、Lambda Labs等Neocloud(新型云服务商)为追求极致TCO,正绕过传统品牌大厂,直接向广达、纬创等ODM下达白牌AI服务器订单。这导致传统品牌商在AI服务器市场的毛利率承压,供应链利润向上游芯片及下游运维端转移。
基础设施与运维:液冷与电力成为隐形卡点
在AI服务器部署现场,运维与基础设施供应链的挑战正逐渐超越服务器本身:
- 液冷组件结构性短缺:随着单机柜功率密度突破100kW,冷板式液冷成为标配。本周供应链预警,UQD(快接头)及大功率CDU出现严重缺货。快接头因防漏液高精度要求,认证周期长,现有产能被头部大厂包圆;中小型数据中心面临“有服务器无冷排”的尴尬局面。
- 配电设备交期拉长:AI数据中心带来前所未有的电力需求,高压开关柜、大功率UPS及变压器供应链极度紧张。本周北美市场数据中心级变压器交付周期已拉长至80周以上,电力基础设施的滞后正成为算力上云的最大物理阻碍。
风险预警与下周展望
- 技术端:关注UALink联盟后续成员动态,其对抗NVLink的生态雏形若获主流大厂支持,将影响下一代Switch芯片及定制网卡的供应链走向。
- 运维端:随着大批量高密度液冷服务器上架,漏液风险急剧上升,下周需密切关注冷板及接头在高压运行下的故障率数据,这或将催生新一轮运维备件采购潮。
- 渠道端:H100现货价格已进入下行通道,对于渠道商而言,需警惕库存贬值风险,建议将备货重心向H200及液冷整机柜倾斜。