在华为全联接 2025 大会上,这家中国科技巨头公布了一个可能改变云AI基础设施格局的新方向——SuperPod 超级算力架构。
它并不仅仅意味着“更多的服务器”,而是通过架构级创新,让数千台服务器像一台“超级机器”一样协同运作,为云计算、AI训练与企业私有云提供全新的可能性。
🧠 传统云AI的瓶颈:规模越大,效率反而下降
当下的云AI基础设施面临一个普遍问题——“扩展惩罚”。
当企业为AI训练集群增加更多服务器时,计算性能并不会成比例提升,反而因为网络通信延迟、资源分散等问题导致整体效率下降。
华为董事、ICT业务集团首席执行官 杨超斌 表示:
“我们基于 UnifiedBus 互联协议开发了 SuperPod 架构,让服务器像一个整体一样学习、推理和思考。”
这意味着,SuperPod 不再是简单的服务器堆叠,而是通过统一互连系统,将物理设备整合成一个逻辑整体。
🔗 技术核心:UnifiedBus 互联协议
SuperPod 的底层支撑是 UnifiedBus 协议 —— 专为超大规模 AI 集群而生。
它解决了两大关键挑战:
- 长距离传输的可靠性问题
- 带宽与延迟之间的性能权衡
传统的数据中心主要使用铜缆(带宽高但距离短)或光缆(距离长但可靠性差)。
而 UnifiedBus 通过多层优化(物理层、链路层、网络层、传输层),实现100 纳秒级的光路故障检测与自动切换,在任何光模块出现断连时,应用层几乎无感知。
华为副董事长 徐直军 透露:
“我们的光互连比传统方案可靠 100 倍,可在 200 米以上保持高速连接,并具备铜线级稳定性。”
这让大规模AI集群在稳定性与性能之间取得了罕见的平衡。
⚙️ SuperPod 架构规格:从企业级到超算级
Atlas 950 SuperPod
- 处理器:8192 颗 Ascend 950DT
- 精度性能:FP8 精度下 8 EFLOPS,FP4 精度下 16 EFLOPS
- 内存总量:1,152 TB
- 互连带宽:16 PB/s
徐直军指出:
“一个 Atlas 950 SuperPod 的带宽相当于全球互联网峰值总带宽的 10 倍。”
Atlas 960 SuperPod
- 处理器:15,488 颗 Ascend 960
- 性能:FP8 精度 30 EFLOPS,FP4 精度 60 EFLOPS
- 内存容量:4,460 TB
- 互连带宽:34 PB/s
- 上市时间:2027 年第四季度
这使得 SuperPod 成为首个真正实现线性扩展的大型 AI 基础设施:增加计算节点即可按比例提升算力。
🏢 企业版解决方案:风冷也能跑AI集群
针对企业级部署,华为还推出了 Atlas 850 SuperPod,
这是业界首个支持风冷的 SuperPod 系统,可在标准机房中部署,无需昂贵的液冷系统。
- 配置:最多 128 单元(共 1024 个 Ascend NPU)
- 特点:可灵活扩展、部署成本低
- 意义:让中型企业也能低成本构建私有 AI 云
这种设计为传统企业提供了更“接地气”的 AI 基础设施路径。
🌐 SuperCluster 超级集群:打造全球级AI算力平台
SuperPod 的下一步是 SuperCluster(超级集群) ——
由多个 SuperPod 构成的超大规模AI系统。
Atlas 950 SuperCluster
- 包含:64 个 Atlas 950 SuperPod
- 总处理器:超过 52 万颗 Ascend AI 芯片
- 计算性能:FP8 精度下 524 EFLOPS
SuperCluster 支持两种网络模式:
- UBoE(以太网统一总线)
- RoCE(融合以太网远程内存访问)
其中 UBoE 可让 UnifiedBus 在标准以太网上运行,
大幅减少交换机数量与光模块成本,同时带来更低延迟与更高可靠性。
华为计划在 2027 年推出的 Atlas 960 SuperCluster 将突破 100 万 NPU,
达到 2–4 ZFLOPS(泽级计算能力),面向万亿参数级 AI 模型。
💾 通用计算领域的延伸:TaiShan 950 SuperPod
SuperPod 架构并不只服务于 AI。
基于 鲲鹏950 处理器的 TaiShan 950 SuperPod 将其拓展至通用云计算领域。
- 处理器:192 核 / 384 线程
- 内存:48 TB
- 节点:16 个
- 适用场景:数据库、虚拟化、企业核心业务
与 GaussDB 分布式数据库 结合后,
可实现2.9 倍性能提升,虚拟化效率提升 20%,Spark 加速达 30%。
这意味着华为正试图打造“一套架构同时覆盖AI与传统计算”的统一基础设施。
🔓 开放生态:UnifiedBus 2.0 全面开源
华为宣布将在 2025年底前 开放 UnifiedBus 2.0 技术规范,
并提供硬件与软件组件访问,包括:
- NPU 模块、AI 卡、CPU 板
- 风冷/液冷刀片服务器
- CANN 编译器工具
- Mind 系列应用套件
- openPangu 基础模型
华为表示,这种开放模式将降低云厂商与系统集成商的准入门槛,
让合作伙伴基于 UnifiedBus 自主开发 SuperPod 兼容方案,加速生态共建。
⚙️ 已落地部署:300+ SuperPod 正在运行
截至 2025 年,Atlas 900 A3 SuperPod 已出货超过 300 套,
服务于互联网、金融、电力、制造等 20 多个行业客户。
这意味着 SuperPod 已从实验室走向实际生产,验证了其架构可行性。
徐直军也坦言:
“中国在半导体制造工艺上会落后较长时间,但我们能通过架构创新弥补这一差距。”
🚀 结语:从算力到架构的竞争
SuperPod 架构的推出,标志着华为从“单芯片竞争”转向“系统级竞争”。
在先进制程受限的背景下,华为选择以 互连技术、系统设计与资源池化 为核心的架构创新路线。
这不仅是应对短期供应链压力的策略,更可能成为云AI基础设施的长期发展方向。
未来几年,SuperPod 是否能在全球范围挑战 NVIDIA、AMD、AWS 等云计算巨头,将成为AI基础设施竞争的关键观察点。