根据风格指南:
我需要构建一个合理的周报框架:
让我开始撰写,确保:
本周(2025年1月第三周)AI服务器供应链呈现分化态势。GPU供应端,NVIDIA H系列芯片缺货状况持续缓解,但高端H200/B100仍处于紧张状态;国产GPU在推理场景加速渗透。服务器出货方面,头部云厂商资本支出保持强劲,但中小企业采购趋于谨慎。整体而言,供应链正从“短缺期”向“结构性调整期”过渡。
Hopper架构产品(H系列)
NVIDIA H系列GPU本周供应格局出现微妙变化。H100 SXM 80GB需求保持高位,主要受大语言模型训练需求支撑,交付周期维持在32-36周区间。H200 SXM 140GB作为当前性能最强的HBM3e产品,供应极度紧张,交付周期攀升至40周以上,主要原因在于台积电CoWoS先进封装产能成为关键瓶颈。
值得关注的是,H20芯片供应量显著增加。供应链消息显示,H20月度出货量已突破3万片,较上月增长约40%。这主要得益于中国特供版芯片的产能爬坡,以及渠道库存的逐步释放。然而,受出口管制政策影响,H20的实际交付仍面临合规审查流程延长的问题。
** Blackwell架构产品(B系列)
B100/B200系列进入早期量产阶段,但规模有限。供应链调研显示,B系列GPU的良率仍在持续优化中,预计2025年第二季度才能实现大规模出货。目前B100主要面向特定超大规模客户限量供应,定价策略尚未完全公开。
AMD MI300X本周需求保持稳定,主要客户群体为微软Azure和Meta。供应链反馈显示,AMD正在加大与代工厂的协商力度,以争取更多CoWoS封装产能。MI350系列预计在2025年下半年推出,将采用HBM3e内存,瞄准推理市场。
** 华为腾系列
腾910B供应持续改善,周出货量估算约2000-2500片。910C的量产准备工作正在进行中,预计2025年第一季度末开始小规模出货。华为正积极拓展腾生态,联合多家服务器厂商推出基于腾的AI服务器解决方案。
** 其他国产GPU
寒武纪思元系列在推理场景的应用逐步落地,部分互联网企业开始小批量采用。海光信息DCU系列产品在国产替代趋势下获得更多关注,订单可见度提升至2025年年中。
本周GPU市场价格整体平稳,二级市场溢价空间收窄。H100 SXM 80GB渠道价格维持在3.2-3.5万美元区间,溢价率从高峰期的40%下降至15%左右。H200 SXM 140GB因供应稀缺,溢价率仍维持在50%以上。
根据供应链调研数据,本周全球AI服务器出货量约为2.8万台(按标准服务器折算),环比小幅增长3%。其中,搭载8颗及以上GPU的高密度AI服务器占比约35%,较上月提升5个百分点。
** 品牌服务器厂商
** 白牌/定制服务器
白牌AI服务器出货量占比约45%,主要客户为云厂商和大型互联网企业。供应链消息显示,字节跳动、腾讯、阿里云的定制服务器订单保持高位。
** 北美市场
北美AI服务器需求保持强劲,四大云厂商(微软、亚马逊、谷歌、Meta)2025年资本支出预算合计超过3000亿美元。供应链反馈,Meta本周追加H100订单约5000片,谷歌持续采购TPU v5。
** 中国市场
中国市场呈现结构性分化。头部互联网企业(BAT、字节跳动等)采购保持稳定,但中小企业和传统行业客户的AI服务器采购趋于谨慎,主要受宏观经济环境和ROI考量影响。
** 欧洲及亚太
欧洲市场AI服务器需求稳步增长,德国、法国、英国的AI基础设施投资加速。亚太地区,日本和韩国的AI服务器采购以推理应用为主。
| 指标 | 本周数据 | 环比变化 | 备注 |
|------|----------|----------|------|
| 全球AI服务器周出货量 | 2.8万台 | +3% | 按8 GPU标准折算 |
| H100交付周期 | 32-36周 | 持平 | 紧张状态持续 |
| H200交付周期 | 40+周 | +4周 | 供应极度紧张 |
| H20月度出货量 | 3万片 | +40% | 国产特供版 |
| H100渠道价格 | 3.2-3.5万美元 | 持平 | 溢价率收窄 |
| 液冷服务器占比 | 约25% | +3pp | 持续提升 |
报告说明:本报告数据来源于供应链调研、渠道反馈及公开信息,部分数据为估算值,仅供参考。