[最新商情]文章ID:3558  分类查看经销商
会员登录 | 经销商申请 | 审核状态查询 | 渠道商情 | 渠道乱炖 |首页
IT渠道网
  大类 小类  
当前:全部   [更改地区]
首页 >>最新商情        SFP/SFF光模块       用户需要一篇关于AI服务器供应链动态的周报。我需要按照专业IT/运维/渠道领域技术作者的要求,撰写8
iTechClub广告

AI服务器供应链动态周报:GPU结构性紧缺持续,液冷出货占比突破拐点

2026-05-11 18:01:43  发布:ai-generator  来源:ai-generator

AI服务器供应链动态周报:GPU结构性紧缺持续,液冷出货占比突破拐点

报告周期: 2023年X月X日 - X月X日

核心摘要: 本周AI服务器供应链呈现“需求持续高企、供应结构性分化”的态势。NVIDIA H20系列在中国区交期逐步缩短,但H200/B200等高端核心算力卡依然面临CoWoS先进封装产能的严格制约。服务器整机出货量受GPU到货节奏影响,环比微增,其中液冷机型出货占比首次突破30%大关,成为供应链重构的重要风向标。


一、 GPU供应动态:H20现货流动性提升,B200产能爬坡成焦点

本周GPU供应链的核心逻辑依然是“先进封装定产能,区域政策定结构”。

  1. 中国区市场:H20交期缩短,渠道现货价回落

受益于NVIDIA针对中国特供版GPU的稳定供货,本周H20在渠道端的现货流动性明显改善。据核心分销商反馈,H20的交期已从此前的8-12周缩短至4-6周,部分大批量订单甚至可实现现货交付。受此影响,H20单卡渠道溢价已从高峰期的20%回落至5%-8%区间。然而,H20的充足供应并未完全缓解国内算力焦虑,互联网大厂及智算中心对算力密度的要求,使得8卡H20服务器的实际集群效能仍面临网络互连瓶颈的考验。

  1. 全球高端市场:H200/B200受制于CoWoS,产能争夺白热化

面向全球主流大模型训练的H200及下一代B200 GPU,供应依然极度紧张。本周供应链传出的核心信号是:台积电的CoWoS-L封装产能虽有扩产动作,但良率爬坡速度低于预期,这直接卡住了NVIDIA高端GPU的出货咽喉。目前H200的订单交付周期仍维持在12周以上,而B200的早期产能几乎已被超大规模云服务商(CSP)如微软、Meta、谷歌等瓜分殆尽,渠道商及二线客户拿到B200现货的时间大概率将推迟至2024年Q3末。

  1. AMD阵营:MI300X稳步渗透

AMD MI300X本周在供应链中的能见度有所提升,部分OEM大厂已开始小批量交付基于MI300X的AI服务器。尽管在软件生态(ROCm)上仍与CUDA存在差距,但在性价比及HBM3e显存容量的驱动下,部分CSP客户已开始将MI300X作为非核心训练及大规模推理集群的算力补充。


二、 服务器整机出货量与ODM动态:CSP定制化主导,液冷迎来拐点

本周全球AI服务器整机出货量环比小幅增长3.5%,出货结构正发生深刻变化,CSP自研定制机型的比例快速上升,对传统品牌厂形成挤压。

  1. ODM出货节奏:跟随GPU到货波动

以广达、纬创、富士康为代表的台湾ODM大厂本周表示,AI服务器出货量主要受限于上游GPU的按月拨付量。目前“主板等卡”仍是常态。值得注意的趋势是,CSP客户越来越倾向于采用OCP(开放计算项目)架构的定制化主板(如UBB架构),这要求ODM具备更强的定制研发与快速打样能力。本周广达AI服务器产线利用率维持在90%以上,预计Q2末将迎来新一轮出货高峰。

  1. 出货结构巨变:液冷机型占比突破30%

本周供应链最显著的变化是液冷AI服务器的出货占比正式突破30%拐点。随着单机柜功率密度从传统的30kW向100kW+跃升,传统的风冷散热已从物理上失效。目前CSP新增的A800/H800/L40S集群几乎100%要求冷板式液冷,而B200机柜(如GB200 NVL72)则全面转向液冷。这一转变正在重塑供应链价值分配:冷板、快接头(QD)及CDU(冷量分配单元)供应商的订单能见度已排至年底,且毛利率显著高于传统机构件。

  1. 网络互连:800G光模块进入规模化交付

随着AI服务器集群规模扩大,网络不再只是附属,而是决定算力效率的核心。本周供应链显示,800G光模块(尤其是SR8和DR8规格)已进入规模化交付阶段,与高端AI服务器形成1:2至1:4的配比出货。同时,基于PCIe 6.0和NVSwitch的机柜级交换架构正在加速替代传统的ToR(机柜顶部)交换架构,这直接推高了单台AI服务器的BOM(物料清单)成本中网络组件的占比。


三、 渠道与运维侧观察:算力租赁价格分化,部署交付成最后一公里难题

  1. 算力租赁市场:高端训练卡与推理卡价格分化

受H20大量到货影响,国内单P推理算力的租赁价格本周出现约10%的下滑;但基于A100/H100原生集群的高端训练算力依然一卡难求,租赁价格保持坚挺。渠道商正从单纯的“倒卖硬件”向“提供集群交付与运维服务”转型,以提升客户粘性。

  1. 交付痛点:电力与散热成为IDC最后一步的拦路虎

多家渠道集成商本周反馈,当前AI服务器供应链最大的痛点已不仅是“买不到卡”,而是“机房放不下”。传统IDC机房的市电容量(单机柜通常仅5-10kW)和楼层承重无法满足单柜40kW以上的AI服务器部署需求。部分客户在服务器到货后,因机房改造延期,导致设备在仓库积压1-2个月,这为渠道商的资金周转带来了巨大压力。


四、 下周展望

  1. CoWoS产能分配: 密切关注台积电Q2法说会,其关于CoWoS产能扩充及良率的表态,将直接决定下半年H200/B200的出货预期。
  2. 国产算力替代: 随着H20成为国内主流合规选项,关注腾910B等国产GPU在运营商及金融行业智算中心的招投标动态,国产AI服务器供应链有望迎来政策性增量。
  3. 机柜级交付趋势: B200将推动AI服务器从“单节点交付”向“整机柜交付”演进,下周需重点关注机柜级液冷管线预连接技术对传统IDC运维流程的冲击。
iTechClub广告
iTechClub广告