NVIDIA Rubin 架构深度调研报告:重构 AI 工厂的算力底座与超算中心部署实践

引言:从计算单元到智能工厂的范式转移

在 2026 年国际消费电子展(CES 2026)上,NVIDIA 正式发布了其下一代算力架构——Rubin 1。这一架构的命名致敬了美国天文学家薇拉·鲁宾(Vera Rubin),她对星系旋转速率的研究为暗物质的存在提供了关键证据 3。正如暗物质重塑了我们对宇宙质量的认知,NVIDIA 的 Rubin 架构旨在重塑全球对 AI 计算的理解:计算不再是孤立的 GPU 任务,而是一场涵盖芯片、互联、存储与软件的“极端协同设计”(Extreme Codesign)变革 5。
Rubin 架构的推出背景植根于当前大模型(LLM)向代理型 AI(Agentic AI)和复杂推理模型(Reasoning Models)转型的关键阶段 8。随着混合专家模型(MoE)规模突破万亿参数,传统的数据中心架构在内存带宽、互联延迟以及存储扩展性方面遭遇了严峻的“物理墙” 1。Rubin 架构通过六颗协同设计的芯片——Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 以太网交换机,提供了一个统一的机架级计算底座,旨在将推理代币(Token)成本降低至 Blackwell 架构的十分之一,并将训练万亿参数 MoE 模型所需的 GPU 数量减少至原来的四分之一 2。
本报告将详尽调研 Rubin 架构的核心技术特征,分析其在顶级超算中心及 AI 超级工厂(AI Superfactories)中的实际部署与测试情况,并剖析其对未来异构计算生态的长远影响。

第一部分:Rubin 架构的技术背景与行业痛点

AI 规模化时代的算力瓶颈

在 Blackwell 架构统治市场的阶段,AI 基础设施面临着三个核心矛盾:

  1. 内存带宽墙(Memory Bandwidth Wall):随着上下文窗口(Context Window)从数万个 Token 扩展到数百万个,GPU 内部的 HBM 带宽逐渐成为推理性能的绝对瓶颈。传统的 HBM3e 已经难以满足实时推理中对 KV 缓存(Key-Value Cache)的极速访问需求 1。
  2. 网络同步延迟:在超大规模集群中,数万甚至数十万颗 GPU 需要在训练过程中频繁进行全规约(All-Reduce)操作。现有的 800G 网络在面对更大规模的集群扩展时,同步开销占据了总计算时间的 30% 以上 1。
  3. 推理经济性危机:AI 模型从“离线训练”转向“在线推理”和“连续推理”,这对每一百万个 Token 的生成成本提出了近乎苛刻的要求。如果成本不能降低一个数量级,代理型 AI 的大规模商用将面临经济性阻碍 10。

Rubin 架构的系统化解决方案

NVIDIA 的回答是彻底打破“以芯片为中心”的设计思路,转而“以机架为计算单元” 7。Rubin 架构通过将 72 颗 GPU、36 颗 CPU 以及整套网络矩阵封装在一个 NVL72 机架内,实现了一个逻辑上的超级计算节点 1。其核心性能提升如表 1 所示:

表 1:Blackwell Ultra (GB300) 与 Vera Rubin (VR200) 核心规格对比

规格参数GB300 NVL72 (Blackwell Ultra)VR NVL72 (Vera Rubin)提升幅度
GPU 核心架构BlackwellRubin世代交替
制程工艺TSMC 4NPTSMC 3nm节点升级 15
单 GPU 晶体管数2080 亿3360 亿1.6x 7
显存类型/带宽HBM3e / \~8 TB/sHBM4 / 22 TB/s2.8x 1
NVFP4 推理性能 (单卡)10 PFLOPS50 PFLOPS5x 1
NVFP4 训练性能 (单卡)10 PFLOPS35 PFLOPS3.5x 1
机架级 NVLink 带宽130 TB/s260 TB/s2x 1
对外网络速率 (NIC)ConnectX-8 (800G)ConnectX-9 (1.6T)2x 1

1 !(https://www.storagereview.com/wp-content/uploads/2026/01/rubin-gpu-diagram.jpg)
图 1:Rubin GPU 架构设计,展示了集成的 HBM4 显存堆栈与第三代 Transformer 引擎。

第二部分:Rubin 架构的核心组件拆解

1. Rubin GPU:HBM4 与第三代 Transformer 引擎

Rubin GPU 是整个平台的算力核心,采用台积电 3nm 工艺制造 15。其最显著的突破在于首次集成了 HBM4 显存,单卡带宽达到了惊人的 22 TB/s 17。这种带宽的飞跃直接解决了万亿参数 MoE 模型在推理时的权重加载与 KV 缓存交换延迟问题。
此外,Rubin 引入了 第三代 Transformer 引擎。该引擎具备硬件加速的“自适应压缩”功能 1。在处理复杂的 Transformer 层时,引擎会动态评估每一层的精度敏感度。对于非敏感层,它会自动切换到更低精度的计算路径以换取极高的吞吐量;而对于关键的权重更新层,则保留高精度计算以确保模型不发散 16。

2. Vera CPU:专为 AI 工厂定制的“Olympus”内核

在此前的 Grace 架构中,NVIDIA 使用了 Arm 的 Neoverse V2 标准内核。而在 Vera CPU 中,NVIDIA 转向了完全自主设计的 Olympus 内核 1。
Vera CPU 拥有 88 个 Olympus 内核,支持 176 个空间多线程(Spatial Multithreading) 5。与传统的同步多线程不同,空间多线程通过物理分区核心资源来减少线程间的指令竞争,确保在执行复杂的 AI 代理调度、数据预处理(ETL)以及编译任务时,能够提供确定性的极低延迟 21。此外,Vera CPU 配备了 1.5 TB 的 LPDDR5X 内存,带宽高达 1.2 TB/s,较 Grace 提升了 2 倍以上 21。

3. NVLink 6:突破 rack-scale 的互联极限

NVLink 6 是将 72 颗 GPU 融合成一颗“超级 GPU”的关键。单颗 GPU 的双向带宽提升至 3.6 TB/s 1。在 VR NVL72 机架中,通过 9 台第五代 NVLink 交换机,整机架的对分带宽达到了 260 TB/s,这甚至超过了全球互联网的总骨干带宽 13。
这种极速互联带来的直接好处是,在进行超大规模 MoE 模型推理时,专家网络(Experts)分布在不同 GPU 上,Token 在 GPU 间的路由跳转几乎不再产生性能损失 13。

4. BlueField-4 DPU 与计算存储平台(ICMSP)

针对长文本推理和代理型 AI 的需求,NVIDIA 推出了 推理上下文内存存储平台(Inference Context Memory Storage Platform, ICMSP) 9。该平台由 BlueField-4 DPU 驱动,它引入了一个全新的存储层级——G3.5 层 12。
在传统的架构中,KV 缓存在 GPU 内存(HBM)耗尽后必须卸载(Offload)到系统内存或慢速 SSD,这会导致显著的延迟增加。ICMSP 允许 BlueField-4 在整个 Pod 级别管理闪存化的 KV 缓存。当 AI 代理在多轮对话中需要回忆先前的上下文时,BlueField-4 能以极速将数据重新加载回 GPU,使得长文本推理的代币吞吐量提升了 5 倍,首次代币响应时间提升了 20 倍 1。

表 2:Rubin 平台六大芯片协同功能表

芯片名称核心角色关键技术实现解决的痛点
Rubin GPU算力加速HBM4, Transformer Engine 3内存带宽瓶颈、吞吐量极限 1
Vera CPU集群管理/调度Olympus 内核, 空间多线程指令延迟、串行任务瓶颈 21
NVLink 6内部互联3.6 TB/s 对分带宽多卡通信开销、数据同步延迟 13
BlueField-4基础设施卸载64 核 Grace 处理器, ICMSPKV 缓存瓶颈、安全性隔离 7
ConnectX-9对外网络1.6 TB/s 吞吐速率大规模集群扩展性、南北流量瓶颈 1
Spectrum-6网络交换102.4T 交换能力, 硅光子网络拥塞管理、能效比 1

1

第三部分:超算中心与数据中心的 Rubin 部署实录

在 2026 年 CES 发布后不久,全球多家顶尖超算中心和云巨头便披露了基于 Rubin 架构的建设规划。这些部署不仅仅是单纯的硬件更迭,更是对科学发现与商业 AI 逻辑的重构。

1. NERSC-10 “Doudna” 超级计算机:科学发现的加速器

美国能源部(DOE)旗下的劳伦斯伯克利国家实验室(Berkeley Lab)宣布,其下一代旗舰超算 NERSC-10 “Doudna” 将全量采用 NVIDIA Vera Rubin 平台 24。

  • 硬件配置:Doudna 由 Dell Technologies 承建,集成了数千个 Vera Rubin 计算节点。它采用了 Dell ORv3 直接液冷技术,以支撑 Rubin 机架极高的功率密度 25。
  • 科学目标:该系统被 NVIDIA CEO 黄仁勋称为“科学的时间机器” 24。它将专门用于量子计算模拟、融合能源研究、生物分子设计以及大规模气候建模。
  • 性能提升:相比于现有的 Perlmutter 系统,Doudna 在科学 AI 模型训练和模拟混合工作流中的性能预计将提升 10 倍以上 25。其集成的 Quantum-X800 InfiniBand 网络提供了近乎零抖动的并行计算环境,允许科学家通过 ESnet 在全国范围内实时传输和分析观测数据 24。

2. Microsoft Azure “Fairwater” AI 超级工厂

微软是 Rubin 架构最大的商业客户之一。其在威斯康星州和亚特兰大布局的 Fairwater AI 超级工厂 站点已经完成了对 Rubin NVL72 的适配 2。

  • 机架级协同:微软 Fairwater 站点采用了独特的“Pod 交换架构”,允许快速热插拔机架组件而不中断网络拓扑 27。通过部署超大规模的 ConnectX-9 网络,微软能够将数十万个 Rubin GPU 连接成一个统一的推理矩阵。
  • 实际测试数据:初步测试显示,在处理类似 GPT-5 规模的推理任务时,Fairwater 站点的 Rubin 集群在长文本(32k-128k Token)推理场景下的响应速度较 Blackwell 提升了 5.5 倍,而每百万 Token 的成本下降了约 90% 11。
  • 冷却与能效:Fairwater 站点全面升级了冷却分配单元(CDU)和高电流母线设计,以应对单机架高达 120kW+ 的功耗挑战 27。

3. Oracle 与阿贡国家实验室的合作部署

Oracle (OCI) 与阿贡国家实验室(Argonne National Laboratory)合作建造了名为 SolsticeEquinox 的超算系统 30。虽然 Solstice 最初基于 Blackwell,但其二期扩展项目(预计 2026 年下半年)已明确将引入 Rubin 节点以增强推理能力。

  • 应用场景:该系统主要支持阿贡实验室的先进光子源(Advanced Photon Source)产生的海量数据流处理。Rubin 节点的加入,使得研究人员能够利用实时推理模型对实验参数进行动态优化 24。

表 3:全球 Rubin 架构首批重点部署项目一览表

客户/中心名称项目代号节点规模/类型主要用途关键合作伙伴
NERSCDoudna (N10)全 Rubin 节点融合能源、分子动力学、量子模拟Dell, NVIDIA 24
Microsoft AzureFairwater数十万 Rubin GPU全球性 AI 推理与科研服务NVIDIA 2
AWSP6 instancesRubin NVL72 实例代理型 AI 云服务NVIDIA 31
CoreWeaveMission ControlRubin 全液冷集群顶级 AI 实验室推理托管NVIDIA 2
Google CloudA4 seriesVera Rubin 算力节点Gemini 模型迭代、云 AINVIDIA 10

2
!(https://azure.microsoft.com/en-us/blog/wp-content/uploads/2026/01/fairwater-rendering.jpg)
图 2:微软 Fairwater AI 超级工厂内部示意图,展示了大规模 Rubin 机架的密集排布。

第四部分:核心概念与技术术语深度拆解

为了深刻理解 Rubin 架构为什么能实现“代币成本降低 10 倍”,我们需要拆解其背后的几大核心机制。

1. NVFP4(NVIDIA Floating Point 4)精度格式

在 Rubin 架构之前,AI 社区普遍使用 FP8 或 INT8 进行量化加速。Rubin 引入了 NVFP4 1。

  • 实现原理:NVFP4 并非简单的 4 位截断。它是通过 Transformer 引擎内部的“自适应精度调整”实现的。硬件可以在不损失显著准确度的前提下,将权重的存储和计算压缩到 4 位空间 16。
  • 功能联系:这种格式与 HBM4 的高带宽结合,使得单卡推理性能达到 50 PFLOPS。相比于 Blackwell 的 10 PFLOPS,这直接提供了 5 倍的算力原生增长 1。

2. 空间多线程(Spatial Multithreading, SMT)

这是 Vera CPU “Olympus” 内核的一项重大创新 21。

  • 术语解释:传统的多线程(如 Intel 的 Hyper-Threading)是“时间片轮转”,两个线程共享一套执行单元,容易发生抢占。空间多线程则是将核心内部的执行单元(ALU、LSU 等)进行物理分区。
  • 应用效果:在 AI 集群管理中,CPU 需要同时处理成千上万个网络中断请求。通过物理分区,Vera CPU 能够确保网络驱动程序和 AI 调度程序在各自的硬件路径上运行,互不干扰,从而实现了极其稳定的 1.2 TB/s 内存访问 21。

3. 第二代 RAS 引擎(Reliability, Availability, Serviceability)

Rubin 机架是第一个真正实现“零停机维护”的设计 1。

  • 预测性维护:RAS 引擎通过集成在 GPU 和 NVLink 中的数千个传感器,监控从电压波动到 HBM 位翻转的各种数据。它能在硬件彻底失效前,利用 NVLink 6 的冗余路径绕过损坏节点,并通知系统管理员进行热插拔更换 20。
  • 物理实现:机架采用了无电缆(Cable-free)设计,所有信号通过背板 PCBs 传输,避免了线缆老化和插错导致的系统不稳定,组装速度提升了 18 倍 1。

4. 机架级可信执行环境(Rack-Scale TEE)

Rubin 架构引入了第三代加密计算技术 1。

  • 安全机制:在过去,数据在 CPU 与 GPU 之间传输时是加密的,但在 GPU 与 GPU 之间的 NVLink 网络中往往是明文。Rubin 实现了从 CPU 到 GPU 再到 NVLink 网络的全链路硬件加密。
  • 功能价值:这意味着即使是拥有物理访问权限的数据中心运维人员,也无法截获正在计算中的敏感模型权重。这为 OpenAI、Anthropic 等拥有核心知识产权的模型公司提供了“物理级”的堡垒 1。

第五部分:影响分析——重塑 AI 的未来

对 AI 实验室的影响

对于 OpenAI、Meta 以及 Anthropic 这样的顶级实验室,Rubin 的出现意味着“训练规模限制”的再次突破。Meta 创始人马克·扎克伯格指出,Rubin 架构提供了部署数十亿人级别 AI 服务所需的能效阶跃 8。

  • 训练效率:使用 Rubin 训练 MoE 模型所需的 GPU 数量减少 4 倍,意味着原本需要建设两年的超级算力中心,现在可以在半年内完成,且能耗大幅降低 2。
  • 推理深度:更强的推理能力意味着模型可以进行更多的“思维链”(CoT)迭代。Rubin 架构让模型在响应用户前能够进行数百次的自我修正和模拟,而不至于让响应时间变得不可接受 33。

对数据中心产业的影响

传统的风冷数据中心正面临淘汰。由于 Rubin NVL72 的极端热密度,全液冷(Liquid Cooling)已成为唯一选择 1。

  • 液冷普及:Supermicro 等厂商正在大规模扩建液冷生产线,以满足 Rubin 的部署需求。基于 CPO(共封装光学)技术的 Spectrum-X 以太网交换机也将光纤连接直接拉到了芯片级,减少了电光转换的损耗和热量 7。

第六部分:结论与未来展望

NVIDIA Rubin 架构在 2026 年 CES 的发布,标志着计算技术从“后摩尔定律时代”向“架构协同设计时代”的跨越。通过将 3360 亿晶体管的单芯片能力与 260 TB/s 的机架级互联能力完美融合,Rubin 架构不仅解决了当前大模型的算力饥渴,更从经济学角度,通过 10 倍的成本削减,为 AI 走向 mainstream 扫清了障碍 10。
正如 NERSC-10 超算中心所展示的那样,Rubin 将不再仅仅是聊天机器人的燃料,它将成为人类探索融合能源、破解生物基因秘密以及对抗气候变化的核心科学工具 24。随着 2026 年下半年首批 Rubin 计算节点的正式交付,我们有望见证一次全球生产力的指数级跃迁。

对于决策者和架构师而言,Rubin 的启示是明确的:未来的竞争不在于你拥有多少颗芯片,而在于你如何通过系统级的协同,将数据转化为低成本、高可靠的智能。Rubin 架构,正是在这场智能革命中,为全人类奠定的一块最厚实的数字基石。

Works cited

  1. NVIDIA Launches Vera Rubin Architecture at CES 2026: The VR NVL72 Rack, accessed January 8, 2026, https://www.storagereview.com/news/nvidia-launches-vera-rubin-architecture-at-ces-2026-the-vr-nvl72-rack
  2. NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer, accessed January 8, 2026, https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
  3. What is Rubin, Nvidia’s AI supercomputing platform set to succeed Blackwell chips?, accessed January 8, 2026, https://indianexpress.com/article/technology/artificial-intelligence/what-is-rubin-nvidia-ai-supercomputing-platform-ces-2026-10458164/
  4. Nvidia announces Vera Rubin AI chip, claims it is 5X more powerful than Blackwell, accessed January 8, 2026, https://timesofindia.indiatimes.com/technology/tech-news/nvidia-announces-vera-rubin-ai-chip-claims-it-is-5x-more-powerful-than-blackwell/articleshow/126366561.cms
  5. NVIDIA Rubin Is The Most Advanced AI Platform On The Planet: Up To 50 PFLOPs With HBM4, Vera CPU With 88 Olympus Cores, And Delivers 5x Uplift Vs Blackwell - Wccftech, accessed January 8, 2026, https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/
  6. NVIDIA officially unveils Rubin: its next-gen AI platform with huge upgrades, next-gen HBM4, accessed January 8, 2026, https://www.tweaktown.com/news/109558/nvidia-officially-unveils-rubin-its-next-gen-ai-platform-with-huge-upgrades-next-gen-hbm4/index.html
  7. Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer, accessed January 8, 2026, https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/
  8. Nvidia unveils next-generation AI superchip architecture partly developed in Israel, accessed January 8, 2026, https://www.timesofisrael.com/nvidia-unveils-next-generation-ai-superchip-architecture-partly-developed-in-israel/
  9. NVIDIA BlueField-4 Powers New Class of AI-Native Storage Infrastructure for the Next Frontier of AI, accessed January 8, 2026, https://nvidianews.nvidia.com/news/nvidia-bluefield-4-powers-new-class-of-ai-native-storage-infrastructure-for-the-next-frontier-of-ai
  10. Why Nvidia's new Rubin platform could change the future of AI computing forever | ZDNET, accessed January 8, 2026, https://www.zdnet.com/article/nvidia-rubin-ai-ces-2026/
  11. Rack-Scale Agentic AI Supercomputer | NVIDIA Vera Rubin NVL72, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/vera-rubin-nvl72/
  12. Introducing NVIDIA BlueField-4-Powered Inference Context Memory Storage Platform for the Next Frontier of AI, accessed January 8, 2026, https://developer.nvidia.com/blog/introducing-nvidia-bluefield-4-powered-inference-context-memory-storage-platform-for-the-next-frontier-of-ai/
  13. NVIDIA Rubin Platform: AI Supercomputer with Six New Chips - NADDOD Blog, accessed January 8, 2026, https://www.naddod.com/ai-insights/nvidia-rubin-platform-ai-supercomputer-with-six-new-chips
  14. Exploring NVIDIA Rubin: The future of AI supercomputing | genai-research - Wandb, accessed January 8, 2026, https://wandb.ai/wandb\_fc/genai-research/reports/Exploring-NVIDIA-Rubin-The-future-of-AI-supercomputing--VmlldzoxNTU0ODcyNw
  15. Nvidia Debuts Next-Generation Vera Rubin AI Platform at CES 2026 | Extremetech, accessed January 8, 2026, https://www.extremetech.com/computing/nvidia-debuts-next-generation-vera-rubin-ai-platform-at-ces-2026
  16. Nvidia Says Rubin Will Deliver 5x AI Inference Boost Over Blackwell - AIwire - HPC Wire, accessed January 8, 2026, https://www.hpcwire.com/aiwire/2026/01/06/nvidia-says-rubin-will-deliver-5x-ai-inference-boost-over-blackwell/
  17. Nvidia Touts New Storage Platform, Confidential Computing For Vera Rubin NVL72 Server Rack - CRN, accessed January 8, 2026, https://www.crn.com/news/data-center/2026/nvidia-touts-new-storage-platform-confidential-computing-for-vera-rubin-nvl72-server-rack
  18. Nvidia launches Vera Rubin NVL72 AI supercomputer at CES — promises up to 5x greater inference performance and 10x lower cost per token than Blackwell, coming 2H 2026 | Tom's Hardware, accessed January 8, 2026, https://www.tomshardware.com/pc-components/gpus/nvidia-launches-vera-rubin-nvl72-ai-supercomputer-at-ces-promises-up-to-5x-greater-inference-performance-and-10x-lower-cost-per-token-than-blackwell-coming-2h-2026
  19. Infrastructure for Scalable AI Reasoning | NVIDIA Rubin Platform, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/technologies/rubin/
  20. NVIDIA Unveils Rubin Platform to Support Large-Scale Training and Inference Workloads - HPCwire, accessed January 8, 2026, https://www.hpcwire.com/off-the-wire/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/
  21. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, https://www.nvidia.com/en-gb/data-center/vera-cpu/
  22. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/vera-cpu/
  23. Nvidia's Vera-Rubin Platform Obsoletes Current AI Iron Six Months Ahead Of Launch, accessed January 8, 2026, https://www.nextplatform.com/2026/01/05/nvidias-vera-rubin-platform-obsoletes-current-ai-iron-six-months-ahead-of-launch/
  24. DOE Announces New Supercomputer Powered by Dell and NVIDIA ..., accessed January 8, 2026, https://www.energy.gov/articles/doe-announces-new-supercomputer-powered-dell-and-nvidia-speed-scientific-discovery
  25. Doudna System - NERSC, accessed January 8, 2026, https://www.nersc.gov/what-we-do/computing-for-science/doudna-system
  26. Some Thoughts On The Future “Doudna” NERSC-10 Supercomputer - The Next Platform, accessed January 8, 2026, https://www.nextplatform.com/2025/06/25/some-thoughts-on-the-future-doudna-nersc-10-supercomputer/
  27. Microsoft's strategic AI datacenter planning enables seamless, large ..., accessed January 8, 2026, https://azure.microsoft.com/en-us/blog/microsofts-strategic-ai-datacenter-planning-enables-seamless-large-scale-nvidia-rubin-deployments/
  28. Microsoft Signals Azure Datacenter Readiness for NVIDIA Rubin Platform, accessed January 8, 2026, https://redmondmag.com/articles/2026/01/06/microsoft-signals-azure-datacenter-readiness-for-nvidia-rubin-platform.aspx
  29. Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions, accessed January 8, 2026, https://www.aninews.in/news/business/supermicro-announces-support-for-upcoming-nvidia-vera-rubin-nvl72-hgx-rubin-nvl8-and-expanded-rack-scale-manufacturing-capacity-for-liquid-cooled-ai-solutions20260106101922
  30. NVIDIA and Oracle to Build US Department of Energy's Largest AI Supercomputer for Scientific Discovery, accessed January 8, 2026, https://nvidianews.nvidia.com/news/nvidia-oracle-us-department-of-energy-ai-supercomputer-scientific-discovery
  31. NVIDIA Unveils Rubin Platform to Support Large-Scale Training and Inference Workloads - AIwire - HPC Wire, accessed January 8, 2026, https://www.hpcwire.com/aiwire/2026/01/06/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/
  32. NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems, accessed January 8, 2026, https://blogs.nvidia.com/blog/dgx-superpod-rubin/
  33. Nvidia at CES 2026: Rubin platform, Vera CPU, GR00T robots, and Alpamayo L4 autonomy, accessed January 8, 2026, https://techfundingnews.com/nvidia-at-ces-2026-rubin-platform-vera-cpu-gr00t-robots-and-alpamayo-l4-autonomy/
  34. Jensen Huang ignites the Rubin era, with six chips achieving a fivefold increase in computing power., accessed January 8, 2026, https://news.futunn.com/en/post/66968773/jensen-huang-ignites-the-rubin-era-with-six-chips-achieving
  35. Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions, accessed January 8, 2026, https://ir.supermicro.com/news/news-details/2026/Supermicro-Announces-Support-for-Upcoming-NVIDIA-Vera-Rubin-NVL72-HGX-Rubin-NVL8-and-Expanded-Rack-Scale-Manufacturing-Capacity-for-Liquid-Cooled-AI-Solutions/default.aspx
最后修改:2026 年 01 月 08 日
如果觉得我的文章对你有用,请随意赞赏