算力工厂的范式转换:NVIDIA Rubin 架构及其极端协同设计深度解析

在 2026 年国际消费电子展(CES 2026)的开幕演讲中,NVIDIA 创始人兼首席执行官黄仁勋正式宣布其下一代数据中心级计算平台——Vera Rubin(以下简称 Rubin)架构已进入全面生产阶段 1。这一宣布不仅标志着计算架构从分立式加速器向集成化、机柜级超算系统的彻底转型,也揭示了 NVIDIA 在“摩尔定律”放缓背景下,通过“极端协同设计”(Extreme Codesign)维持其 AI 霸主地位的战略野心 3。

时代背景:从聊天机器人到智能体 AI 的跨越

计算架构的演进始终是由软件需求的剧烈变化驱动的。在 Hopper 和 Blackwell 架构主导的时代,AI 的主要形式是基于大规模语言模型(LLM)的离散训练与简单推理。然而,随着 AI 进入“工业化阶段”,智算工厂(AI Factory)的逻辑发生了根本性变化 6。现代 AI 负载正从简单的文本生成进化为具备多步推理、复杂工作流和长上下文感知能力的“代理式 AI”(Agentic AI) 7。

算力天花板与推理成本危机

当前智算领域面临三大核心挑战。首先,尽管 GPU 的算力指标不断攀升,但在处理万亿参数级(Trillion-parameter)模型时,显存带宽(Memory Wall)和互联延迟(Communication Bottleneck)正成为制约性能的“隐形天花板” 9。其次,随着上下文窗口扩展至数百万个 Token,推理过程中的 KV 缓存(Key-Value Cache)管理成为存储与计算的沉重负担 12。最后,推理成本的持续攀升威胁着 AI 商业化的闭环,若无法大幅降低单个 Token 的生成成本,智能化的普及将遭遇经济学瓶颈 14。

NVIDIA 的解法:以机柜为基本计算单元

Rubin 架构的出现,是 NVIDIA 对上述问题的系统性回应。它不再仅仅是售卖单颗 GPU,而是将数据中心视为一个整体,推出了一套包含六种核心芯片的协同系统 6。这种“极端协同设计”将计算、联网、存储、供电、冷却和软件视为一个单一的架构整体,旨在通过机柜级的创新来消除局部组件之间的瓶颈,从而实现性能与经济效率的指数级跃升 5。

深度拆解:Rubin 平台的六芯片协同体系

Rubin 平台的核心由六款专门设计的芯片组成,它们各司其职,又通过高速互联技术形成了一个紧密的算力网络 1。

Rubin GPU:专为转换器时代设计的执行引擎

Rubin GPU 是该平台的动力核心。采用了 TSMC 3nm 级工艺制造,其晶体管数量达到了 3360 亿个,约为 Blackwell 架构的 1.6 倍 19。然而,其性能提升远超晶体管增长的比例。Rubin GPU 在 NVFP4 精度下的推理性能达到 50 PFLOPS,训练性能达到 35 PFLOPS,分别是前代产品 Blackwell 的 5 倍和 3.5 倍 1。

关键规格Blackwell (GB200)Rubin GPU提升幅度
工艺节点TSMC 4nm (定制)TSMC 3nm节点升级
晶体管数量2080 亿3360 亿1.6x
HBM 技术HBM3eHBM4世代跃迁
显存带宽\~8 TB/s22 TB/s2.8x
NVLink 带宽 (单 GPU)1.8 TB/s3.6 TB/s2x
NVFP4 推理性能10 PFLOPS50 PFLOPS5x
NVFP4 训练性能10 PFLOPS35 PFLOPS3.5x

表 1:Rubin GPU 与 Blackwell GPU 核心规格对比 1
Rubin GPU 的巨大成功很大程度上归功于其集成的第三代 Transformer Engine。该引擎引入了硬件加速的自适应压缩技术,能够动态调整计算精度,在保证模型准确性的前提下,极大释放了 NVFP4 算力的吞吐量 7。

Vera CPU:AI 工厂的首席指挥官

Rubin 平台不仅有强大的 GPU,还引入了全新的 Vera CPU,用于替代之前的 Grace CPU 2。Vera CPU 是 NVIDIA 自主设计的基于 Armv9.2 架构的高性能处理器,内部集成了 88 个定制的“Olympus”核心 1。
Vera CPU 的技术亮点在于其“空间多线程”(Spatial Multi-Threading)技术 1。与传统 CPU 的并发机制不同,空间多线程通过物理分区核心资源而非简单的时间切片,实现了多线程执行下的高性能与确定性延迟 3。这对于现代 AI 任务中的数据预处理(ETL)、KV 缓存管理以及代理逻辑调度至关重要,能确保 GPU 的执行流水线始终处于饱和状态 23。此外,Vera CPU 支持高达 1.5TB 的 LPDDR5X 显存,带宽达 1.2 TB/s,相较前代提升了 2 倍以上 17。

NVLink 6 与互联织网:打破通讯壁垒

在机柜级系统中,互联带宽决定了系统的上限。第六代 NVLink 将每个 GPU 的带宽翻倍至 3.6 TB/s,使得 72 颗 Rubin GPU 能够以一个统一的、低延迟的计算域运行 7。NVLink 6 Switch 芯片提供了惊人的 28.8 TB/s 聚合交换带宽,配合 NVIDIA 可扩展分级聚合与归约协议(SHARP v4),能有效减少 50% 的网络拥塞 7。
而在跨机柜的大规模扩展(Scale-out)方面,Rubin 平台引入了:

  • ConnectX-9 SuperNIC: 提供 1.6 Tb/s 的极高吞吐量,专门优化了智算工厂中的“东西向”流量 6。
  • Spectrum-6 以太网交换机: 采用硅光子技术(CPO),聚合带宽高达 409.6 Tb/s(SN6800 型号),能效比相较传统方案提升了 5 倍 1。

BlueField-4 DPU:基础设施脱载的基石

BlueField-4 DPU 是 Rubin 平台的“数字守卫”。它将 64 核 Grace CPU 与 ConnectX-9 网络芯片集成在单一双显卡封装内,主要负责网络安全、存储脱载和弹性缩放任务 6。相较于 BlueField-3,其计算性能提升了 6 倍,显存带宽提升了 3 倍,能确保基础设施层的操作不会干扰昂贵的 CPU/GPU 计算资源 20。

推理上下文存储(ICMS):解决智能体 AI 的长记忆问题

Rubin 架构引入的一项功能性创新是“推理上下文存储平台”(ICMS) 9。在处理多轮对话或复杂推理任务时,系统需要频繁调用 KV 缓存。传统的方案由于 GPU 显存容量限制,往往需要将这些上下文重新计算,导致算力的巨大浪费 12。
ICMS 平台利用 BlueField-4 DPU,将智算工厂的存储体系分为多个层级。它创建了一个名为 G3.5 的高速闪存层,专门用于存放具有临时性但对延迟敏感的 KV 缓存数据 12。这一技术实现了上下文数据在 pod 级别的高速共享与重用,将 Token 吞吐量提升了 5 倍,同时能效比提升了 5 倍,为长上下文、多轮迭代的代理式 AI 提供了经济可行的技术底座 12。

核心术语与技术逻辑:NVFP4 与自适应压缩

Rubin 性能飞跃的核心技术秘密在于其全新的数值精度格式——NVFP4(NVIDIA 4-bit Floating Point) 1。
在智算工厂的实际运行中,不同层级的神经网络对精度的敏感度各异。第三代 Transformer Engine 能够动态地、自适应地调整计算精度:在对结果影响较小的计算路径上使用 4 位精度以换取 5 倍的吞吐量,而在关键的注意力机制路径上自动回切至更高精度以保证逻辑严密性 3。
这种自适应压缩不仅是硬件上的改变,更依赖于软件层的深刻理解。NVIDIA 推出的 CUDA Tile 编程模型,就是为了让开发者能够充分利用这种张量原生的执行逻辑,确保在 Rubin、未来的 Feynman 乃至更远的架构上实现无缝的代码转换与性能增益 1。

物理实现:Vera Rubin NVL72 液冷机柜系统

Rubin 平台的旗舰实现形式是 Vera Rubin NVL72 机柜系统 1。这是一个将 72 颗 Rubin GPU 和 36 颗 Vera CPU 集成在单一机柜内的超算单元,总晶体管数量达到了惊人的 220 万亿个 3。

物理架构与能效管理

为了应对超大规模算力带来的散热挑战,NVL72 彻底抛弃了传统的风冷方案,采用了 100% 液冷、无风扇、无管路、无电缆的设计 1。这种一体化的液冷设计不仅大幅缩小了机柜体积,更将能效比提升到了行业领先水平。黄仁勋在演讲中提到,NVL72 的安装时间从 Blackwell 时代的 2 小时缩短到了仅需 5 分钟,这种极速部署能力对于正在扩建“千兆瓦级 AI 工厂”的云服务商而言具有无可比拟的吸引力 1。

NVL72 平台规格指标参数数值
GPU 总数72 x Rubin GPU
CPU 总数36 x Vera CPU
总计算性能 (NVFP4 推理)3.6 ExaFLOPS
总计算性能 (NVFP4 训练)2.5 ExaFLOPS
总 HBM4 显存20.7 TB
显存聚合带宽1.6 PB/s
总 LPDDR5X 内存54 TB
机柜互联总带宽 (NVLink)260 TB/s

表 2:Vera Rubin NVL72 机柜级系统规格全貌 17

第二代 RAS 引擎:实现零停机运维

在大规模集群中,硬件故障是不可避免的。Rubin 平台配备了专用的第二代 RAS(可靠性、可用性、可维护性)引擎 7。该引擎能在不中断业务的情况下进行实时健康检查,并支持主动维护。配合机柜的无电缆模块化托盘设计,运维人员可以像拔插 U 盘一样快速更换故障组件,确保 AI 工厂的 24/7 持续运行 7。

物理 AI:从比特世界走向原子世界

Rubin 架构不仅仅是为了运行聊天机器人,它的最终目标是支撑 NVIDIA 的“物理 AI”愿景 31。物理 AI 要求 AI 不仅能理解文本,还能感知、推理并作用于物理现实,例如自动驾驶、工业机器人和人形机器人 34。

Alpamayo:自动驾驶的“ChatGPT时刻”

在 CES 2026 上,NVIDIA 推出了 Alpamayo 系列开源推理模型,专门用于自动驾驶任务 15。与传统的反应式驾驶系统不同,Alpamayo 采用了基于视觉-语言-动作(VLA)的推理架构,能够像人类一样通过“思维链”处理复杂的长尾路况场景 15。Rubin 平台提供的强大 NVFP4 算力,使得这些具有 100 亿甚至更多参数的推理模型能够在车载终端上实时运行,并将在 2026 年搭载在梅赛德斯-奔驰的新款 CLA 上,实现真正的城区到城区全场景智能驾驶 4。

机器人与仿真生态

Rubin 平台通过其强大的多模态处理能力,支撑着 GR00T(人形机器人)、Cosmos(机器人仿真)等物理 AI 生态 31。这些 AI 系统需要在虚拟环境(Omniverse)中进行数亿次的合成数据训练,然后再部署到物理实体中。Rubin 的高显存带宽与高速互联,使得这种“虚拟到现实”的迭代速度加快了数倍 35。

市场分析:NVIDIA Rubin 对抗 AMD 与 Intel 的防线

Rubin 的发布时机极其微妙且具有攻击性。NVIDIA 打破了传统的路线图发布节奏,在 Blackwell 尚未完全普及之时便抛出 Rubin,旨在抢占客户的未来预期并确立事实上的行业标准 2。

对比 AMD Helios 架构

AMD 在 CES 2026 上推出了其旗舰 Helios 机柜系统及 Instinct MI455X 加速器 40。MI455X 拥有更大的 432GB HBM4 显存,对于某些超大内存依赖型工作负载具有吸引力 40。
然而,NVIDIA 的 Rubin 平台在系统集成度上更胜一筹。Rubin 并非简单的芯片堆叠,而是通过其私有的 NVLink 6、Spectrum-X 织网以及自研的 Vera CPU 形成了一个封闭但效率极高的生态闭环 10。相比之下,AMD 更多地依赖于 UALink、Ultra Ethernet 等开源标准,虽然提供了更好的灵活性,但在这种“极端协同”的峰值效率上,NVIDIA 依然保持着领先地位 11。

经济影响与 TCO 分析

对于云服务商(Hyperscalers)而言,Rubin 的核心吸引力在于总拥有成本(TCO)的优化 14。虽然 Rubin 系统的单价可能更高,但由于其在推理任务上能实现 10 倍的成本降低,且训练相同规模模型所需的 GPU 数量减少了 75%,这意味着单位智能的产出成本大幅下降 5。这种“算力普惠”效应将促使更多的企业级客户从碎片化的 GPU 服务器转向统一的机柜级超算平台 14。

未来路线图:Rubin Ultra 与 Feynman 的远景

NVIDIA 的脚步并未止于 Rubin。在 2026 年初的这场演讲中,黄仁勋也提及了未来的规划 1:

  • Rubin Ultra (2027): 预计将升级至 HBM4E 显存,性能进一步压榨 3nm 工艺的上限 45。
  • Feynman (2028): 下一个完全重构的架构,将配合更先进的制程(如 2nm 或 1.8A)以及新一代互联技术 1。

这种“一年一代”的暴力迭代节奏,其本质是利用其极高的利润率进行研发投资,从而在硬件演进速度上彻底甩开竞争对手 11。

结论:重构算力生产关系的 Rubin 时代

NVIDIA Rubin 平台的发布,标志着通用计算时代的落幕和加速智算时代的全面爆发 31。通过“极端协同设计”将六款芯片、液冷基础设施和自适应压缩软件融为一体,NVIDIA 不再仅仅是一个芯片供应商,而是一个完整的“智能化解决方案商” 14。
Rubin 架构通过 NVFP4 精度、空间多线程 CPU、以及推理上下文存储(ICMS)等一系列技术创新,成功击碎了制约代理式 AI 发展的瓶颈 3。它所带来的 10 倍推理成本下降,将极大地加速 AI 从实验室走向千行百业的速度 5。在接下来的 2026 年下半年,随着这些液冷算力猛兽正式进入全球各地的数据中心,我们或许将见证由 Rubin 开启的、真正具备物理推理能力的智能体时代 1。

Works cited

  1. Nvidia CEO confirms Vera Rubin NVL72 is now in production ..., accessed January 8, 2026, https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-ceo-confirms-vera-rubin-nvl72-is-now-in-production-jensen-huang-uses-ces-keynote-to-announce-the-milestone
  2. CES 2026: Nvidia confirms Rubin AI chips in production, eyes cloud rollout, China demand and autonomous vehicles, accessed January 8, 2026, https://www.livemint.com/technology/tech-news/ces-2026-nvidia-confirms-rubin-ai-chips-in-production-eyes-cloud-rollout-china-demand-and-autonomous-vehicles-11767691462745.html
  3. AIwire - Covering Scientific & Technical AI - HPC Wire, accessed January 8, 2026, https://www.hpcwire.com/aiwire/2026/01/06/nvidia-says-rubin-will-deliver-5x-ai-inference-boost-over-blackwell/
  4. Nvidia CES 2026 announcements: 5 big takeaways from CEO Jensen Huang’s keynote, accessed January 8, 2026, https://www.tradingview.com/news/invezz:473be98a9094b:0-nvidia-ces-2026-announcements-5-big-takeaways-from-ceo-jensen-huang-s-keynote/
  5. NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer, accessed January 8, 2026, https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
  6. Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer | NVIDIA Technical Blog, accessed January 8, 2026, https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/
  7. Infrastructure for Scalable AI Reasoning | NVIDIA Rubin Platform, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/technologies/rubin/
  8. NVIDIA BlueField-4 Powers New Class of AI-Native Storage Infrastructure for the Next Frontier of AI, accessed January 8, 2026, https://nvidianews.nvidia.com/news/nvidia-bluefield-4-powers-new-class-of-ai-native-storage-infrastructure-for-the-next-frontier-of-ai
  9. ETtech Explainer: What’s Nvidia's Rubin platform, and why it matters for AI, accessed January 8, 2026, https://m.economictimes.com/tech/artificial-intelligence/ettech-explainer-whats-nvidias-rubin-platform-and-why-it-matters-for-ai/articleshow/126378029.cms
  10. What Nvidia just did could rewire the AI race - TheStreet, accessed January 8, 2026, https://www.thestreet.com/investing/what-nvidia-just-did-could-rewire-the-ai-race
  11. The Rubin Revolution: Nvidia's New Architecture Sparks a $500 Billion AI Infrastructure Supercycle - Markets & Stocks - The Chronicle-Journal, accessed January 8, 2026, http://markets.chroniclejournal.com/chroniclejournal/article/marketminute-2026-1-6-the-rubin-revolution-nvidias-new-architecture-sparks-a-500-billion-ai-infrastructure-supercycle
  12. Introducing NVIDIA BlueField-4-Powered Inference Context Memory Storage Platform for the Next Frontier of AI, accessed January 8, 2026, https://developer.nvidia.com/blog/introducing-nvidia-bluefield-4-powered-inference-context-memory-storage-platform-for-the-next-frontier-of-ai/
  13. Nvidia pushes AI inference context out to NVMe SSDs, accessed January 8, 2026, https://blocksandfiles.com/2026/01/06/nvidia-standardizes-gpu-cluster-kv-cache-offload-to-nvme-ssds/
  14. Nvidia Rubin Reshapes the AI Factory - Aragon Research, accessed January 8, 2026, https://aragonresearch.com/nvidia-rubin-reshapes-the-ai-factory/
  15. CES 2026: Nvidia promises five times the AI performance and ten times cheaper inference with Vera Rubin - The Decoder, accessed January 8, 2026, https://the-decoder.com/ces-2026-nvidia-promises-five-times-the-ai-performance-and-ten-times-cheaper-inference-with-vera-rubin/
  16. NVIDIA Kicks Off the Next Generation of AI ... - NVIDIA Corporation, accessed January 8, 2026, https://investor.nvidia.com/news/press-release-details/2026/NVIDIA-Kicks-Off-the-Next-Generation-of-AI-With-Rubin--Six-New-Chips-One-Incredible-AI-Supercomputer/default.aspx
  17. Nvidia launches Vera Rubin NVL72 AI supercomputer at CES — promises up to 5x greater inference performance and 10x lower cost per token than Blackwell, coming 2H 2026 | Tom's Hardware, accessed January 8, 2026, https://www.tomshardware.com/pc-components/gpus/nvidia-launches-vera-rubin-nvl72-ai-supercomputer-at-ces-promises-up-to-5x-greater-inference-performance-and-10x-lower-cost-per-token-than-blackwell-coming-2h-2026
  18. Nvidia announces Vera Rubin AI chip, claims it is 5X more powerful than Blackwell, accessed January 8, 2026, https://timesofindia.indiatimes.com/technology/tech-news/nvidia-announces-vera-rubin-ai-chip-claims-it-is-5x-more-powerful-than-blackwell/articleshow/126366561.cms
  19. Nvidia Debuts Next-Generation Vera Rubin AI Platform at CES 2026 | Extremetech, accessed January 8, 2026, https://www.extremetech.com/computing/nvidia-debuts-next-generation-vera-rubin-ai-platform-at-ces-2026
  20. NVIDIA Launches Next-Generation Rubin AI Compute Platform at CES 2026, accessed January 8, 2026, https://www.servethehome.com/nvidia-launches-next-generation-rubin-ai-compute-platform-at-ces-2026/
  21. Nvidia unpacks Vera Rubin rack system at CES - The Register, accessed January 8, 2026, https://www.theregister.com/2026/01/05/ces\_rubin\_nvidia/
  22. Why NVFP4 Inference (50 PFLOPS) Outperforms Training (35 PFLOPS) on Rubin GPU? · Issue \#2565 · NVIDIA/TransformerEngine - GitHub, accessed January 8, 2026, https://github.com/NVIDIA/TransformerEngine/issues/2565
  23. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, https://www.nvidia.com/en-gb/data-center/vera-cpu/
  24. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/vera-cpu/
  25. At CES, Nvidia launches Vera Rubin platform for AI data centers - Network World, accessed January 8, 2026, https://www.networkworld.com/article/4113228/nvidia-launches-network-support-laden-vera-rubin-platform-for-ai-data-centers.html
  26. NVIDIA Rubin Is The Most Advanced AI Platform On The Planet: Up To 50 PFLOPs With HBM4, Vera CPU With 88 Olympus Cores, And Delivers 5x Uplift Vs Blackwell - Wccftech, accessed January 8, 2026, https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/
  27. NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems, accessed January 8, 2026, https://blogs.nvidia.com/blog/dgx-superpod-rubin/
  28. NVIDIA Unveils Rubin Platform to Support Large-Scale Training and Inference Workloads - AIwire - HPC Wire, accessed January 8, 2026, https://www.hpcwire.com/aiwire/2026/01/06/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/
  29. Supermicro Expands Liquid-Cooled AI Manufacturing and Backs NVIDIA... - Market Chameleon, accessed January 8, 2026, https://marketchameleon.com/articles/b/2026/1/6/supermicro-liquid-cooled-ai-nvidia-vera-rubin-nvl72-hgx-rubin-nvl8-expansion
  30. Rack-Scale Agentic AI Supercomputer | NVIDIA Vera Rubin NVL72, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/vera-rubin-nvl72/
  31. NVIDIA Rubin Platform, Open Models, Autonomous Driving: NVIDIA Presents Blueprint for the Future at CES, accessed January 8, 2026, https://blogs.nvidia.com/blog/2026-ces-special-presentation/
  32. A Discussion on the Announced Specs of Rubin vs Blackwell and how that could translate to Consumer Chips : r/hardware - Reddit, accessed January 8, 2026, https://www.reddit.com/r/hardware/comments/1q5d97x/a\_discussion\_on\_the\_announced\_specs\_of\_rubin\_vs/
  33. Gigascale AI Training & Inference Platform | NVIDIA DGX Vera Rubin NVL72, accessed January 8, 2026, https://www.nvidia.com/en-us/data-center/dgx-vera-rubin-nvl72/
  34. Everything Nvidia's Jensen Huang announced at CES 2026 - Quartz, accessed January 8, 2026, https://qz.com/nvidia-ces-2026-announcements-jensen-huang-avs
  35. 3 major takeaways from Nvidia Live at CES 2026 - Mashable, accessed January 8, 2026, https://mashable.com/article/ces-2026-major-takeaways-from-nvidia-live
  36. What is Rubin, Nvidia’s AI supercomputing platform set to succeed Blackwell chips?, accessed January 8, 2026, https://indianexpress.com/article/technology/artificial-intelligence/what-is-rubin-nvidia-ai-supercomputing-platform-ces-2026-10458164/
  37. NVIDA CES 2026: key announcements on AI, self-driving cars, and gaming tech, accessed January 8, 2026, https://thegadgetflow.com/blog/nvidia-ces-2026-key-announcements/
  38. Nvidia CEO Jensen Huang says "the future is neural rendering" at CES 2026, teasing DLSS advancements — RTX 5090 could represent the pinnacle of traditional raster | Tom's Hardware, accessed January 8, 2026, https://www.tomshardware.com/pc-components/gpus/nvidia-ceo-jensen-huang-says-the-future-is-neural-rendering-at-ces-2026-teasing-dlss-advancements-rtx-5090-could-represent-the-pinnacle-of-traditional-raster
  39. The Silicon Sovereign: How Nvidia's 'Rubin' Era is Rewriting the Market Playbook in 2026, accessed January 8, 2026, https://markets.financialcontent.com/wral/article/marketminute-2026-1-6-the-silicon-sovereign-how-nvidias-rubin-era-is-rewriting-the-market-playbook-in-2026
  40. Advanced Micro Devices Unveils Helios AI Rack, Instinct MI455 and “Yotta-Scale” Compute Push at CES 2026 - MarketBeat, accessed January 8, 2026, https://www.marketbeat.com/instant-alerts/advanced-micro-devices-unveils-helios-ai-rack-instinct-mi455-and-yotta-scale-compute-push-at-ces-2026-2026-01-05/
  41. CES 2026: AMD Details Helios AI Rack and Next-Gen Instinct MI400 GPUs - Tech Times, accessed January 8, 2026, https://www.techtimes.com/articles/313781/20260106/ces-2026-amd-details-helios-ai-rack-next-gen-instinct-mi400-gpus.htm
  42. AMD's EPYC Venice, Instinct MI455X, & Helios Hardware On Display for First Time at CES 2026 - ServeTheHome, accessed January 8, 2026, https://www.servethehome.com/amds-epyc-venice-instinct-mi455x-helios-hardware-on-display-for-first-time-at-ces-2026/
  43. Everything AMD Announced at CES 2026: Helios Racks, MI455X GPUs, and Ryzen AI 400 Chips - Techloy, accessed January 8, 2026, https://www.techloy.com/everything-amd-announced-at-ces-2026-helios-racks-mi455x-gpus-and-ryzen-ai-400-chips/
  44. Nvidia's Rubin platform aims to cut AI training, inference costs | CIO Dive, accessed January 8, 2026, https://www.ciodive.com/news/nvidia-rubin-cut-ai-training-inference-costs/808915/
  45. Nvidia expects upside to $500B in AI demand from Blackwell/Rubin: Citi (NVDA:NASDAQ), accessed January 8, 2026, https://seekingalpha.com/news/4537392-nvidia-expects-upside-to-500b-in-ai-demand-from-blackwell-rubin-citi
  46. Nvidia’s Vera-Rubin Platform Obsoletes Current AI Iron Six Months Ahead Of Launch, accessed January 8, 2026, https://www.nextplatform.com/2026/01/05/nvidias-vera-rubin-platform-obsoletes-current-ai-iron-six-months-ahead-of-launch/
  47. Nvidia Rubin AI platform lowers token costs tenfold compared to Blackwell as Elon Musk praises it as 'rocket engine for AI', accessed January 8, 2026, https://www.notebookcheck.net/Nvidia-Rubin-AI-platform-lowers-token-costs-tenfold-compared-to-Blackwell-as-Elon-Musk-praises-it-as-rocket-engine-for-AI.1197748.0.html
最后修改:2026 年 01 月 08 日
如果觉得我的文章对你有用,请随意赞赏