报告周期: 2023年X月X日 - X月X日
核心摘要: 本周AI服务器供应链延续高景气度,但交付瓶颈正发生结构性转移。受美国出口管制新规影响,NVIDIA H20在国内需求激增,交期出现反弹;核心零部件层面,HBM3e产能依然紧俏,而高多层PCB及液冷快接头正成为新的产能卡点。渠道端,白盒化趋势加速,整机柜交付模式正在重塑传统渠道利润格局。
1. GPU与算力芯片:H20主导国内市场,B200进入试产阶段
本周,NVIDIA特供版H20在国内采购需求持续放大。受合规审查趋严影响,下游大厂及智算中心为确保算力池规模,正加速锁定H20订单,导致其交期从早期的8周左右反弹至12-16周。与此同时,NVIDIA下一代Blackwell架构B200芯片已进入工程试产阶段,台积电CoWoS-L先进封装产能正加速向其倾斜。国内方面,华为腾910B出货量稳步攀升,在运营商及国字号智算中心招标中占据主导,生态适配进度成为渠道商关注焦点。
2. 内存与存储:HBM3e依然紧俏,企业级SSD价格上行
SK海力士HBM3e产能已被NVIDIA及AMD全额锁定,2024全年产能无空余。尽管台积电正协助扩充CoWoS产能,但HBM的验证周期与良率爬坡决定了短期内供给难以大幅改善。常规DRAM方面,随着AI PC及端侧大模型的渗透,大容量DDR5需求回暖,叠加原厂减产效应,企业级SSD(特别是NVMe U.2/U.3高容量型号)合约价本周环比上涨约3%-5%。
3. PCB与连接器:高多层板交期拉长,液冷快接头结构性缺货
AI服务器(如HGX架构)对PCB要求极高,需大量使用24-30层的高多层HDI板及超厚铜箔基板。本周供应链反馈,部分核心PCB供应商(如沪电、深南)产能满载,相关高阶板交期已拉长至14-18周。此外,伴随液冷渗透率飙升,冷板式液冷的CDU(冷量分配单元)及快接头出现严重结构性缺货,部分厂商甚至需等待8-10周,直接拖累了整机厂的出货节奏。
1. 整机组装:OAM/UBB基板供应缓解,系统级测试成新堵点
前期备受关注的OAM(OCP加速器模块)和UBB(通用基板)供应紧张局面本周有所缓解,台系代工厂(如广达、纬创、富士康)的基板贴片(SMT)产能逐步释放。然而,新的瓶颈转移至系统级集成与测试环节。8卡/9卡高端AI服务器功耗普遍突破10kW,对散热、供电及信号完整性的要求极高,烧机测试与老化测试周期被迫延长,制约了最终成品的交付速度。
2. 散热与机房供电:风冷触及性能天花板,液冷交付周期分化
当前单柜功率密度超40kW的AI集群已彻底告别传统风冷。本周供应链动态显示,冷板式液冷组件交期约为6-8周,而浸没式液冷因定制化程度高,交期仍高达12周以上。对于运维端而言,液冷不仅意味着硬件变更,更对机房市电容量(单机柜需2N冗余供电)和承重提出严苛要求,大量存量数据中心无法直接承接新一代AI服务器,这进一步加剧了新建智算中心对整机柜的争夺。
1. 渠道形态变迁:从“卖裸机”到“卖整机柜”
传统服务器渠道以标准2U/4U机架式服务器流转为主,但在AI时代,NVIDIA MGX/HGX架构推动整机柜交付成为主流。本周多家头部ODM厂商表示,超70%的AI服务器订单以整机柜形式出货。这对传统渠道商的现金流、仓储及集成能力提出巨大挑战,渠道利润正从单纯的硬件分销,向网络调优(如InfiniBand组网)、集群部署及后期运维转移。
2. 白盒化趋势:OCP标准加速解耦,渠道商寻机破局
受大模型训练成本压力影响,互联网大厂(CSP)越来越倾向于采用OCP标准进行硬件解耦,绕开传统品牌商直接向ODM定制“白盒”AI服务器。本周市场传出国内某头部CSP大幅削减品牌商订单,转投白盒方案。这迫使传统品牌渠道商必须转型,从单纯的设备搬运工,升级为提供“算力+网络+存储+调优”的全栈解决方案服务商。
在供应链交付节奏变化的背景下,运维端面临前所未有的压力。本周多个万卡集群在部署时暴露出网络微突发与拥塞问题。AI服务器交付不再是简单的“上电点亮”,而是涉及NCCL参数调优、RoCEv2网络无损配置及GPU显存一致性测试的复杂工程。供应链交付延迟,往往不是因为缺料,而是卡在了集群网络联调阶段。运维团队需前置介入供应链测试环节,要求厂商在出厂前完成完整的HGX基板级通信验证。
(注:本文数据基于供应链核心厂商调研及公开信息综合研判,具体采购策略请以厂商最新报价及交期为准。)