NVIDIA×Google Cloud:Vera Rubin A5X 实例扩展至近百万 GPU
Google Cloud Next 上,NVIDIA 与 Google Cloud 宣布扩大合作:推出 Vera Rubin 驱动的 A5X 实例(可扩展至近 100 万 Rubin GPU),Gemini 登陆 Google Distributed Cloud,首个云端机密计算 Blackwell GPU,Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。
查看原文核心要点
2026 年 4 月 22 日,NVIDIA 与 Google Cloud 在 Google Cloud Next 大会上宣布扩大战略合作:推出基于 Vera Rubin 架构的 A5X 实例,最高可扩展至近 100 万块 Rubin GPU 集群;同时 Gemini 大模型登陆 Google Distributed Cloud(GDC),推出业界首个云端机密计算 Blackwell GPU,并将 Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。此轮合作标志着 Google Cloud 在 AI 基础设施层面与 NVIDIA 的绑定深度进一步跃升。
原文 + 中文翻译
原文:"Announcing expanded collaboration with Google Cloud: Vera Rubin-powered A5X instances scaling to ~1 million Rubin GPUs, Gemini landing on Google Distributed Cloud, first cloud confidential computing Blackwell GPU, and Nemotron/NeMo on Gemini Enterprise Agent Platform."
翻译:"宣布与 Google Cloud 扩大合作:推出 Vera Rubin 驱动的 A5X 实例,可扩展至约 100 万块 Rubin GPU,Gemini 登陆 Google Distributed Cloud,业界首个云端机密计算 Blackwell GPU,以及 Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。"
深度解读
1. 百万级 GPU 集群:超大规模 AI 基础设施的军备竞赛
将 A5X 实例扩展上限定在「近 100 万」 Rubin GPU,不是一个技术极限测试,而是一个商业宣言。在 2026 年这个时间节点,AWS 有 Trainium 芯片自研路径,Microsoft Azure 与 OpenAI 深度绑定,Google Cloud 需要在 GPU 规模上建立压倒性优势,以吸引需要训练超大规模模型的客户(主权 AI 政府客户、基础模型公司、超大规模企业)。100 万 GPU 级别的集群,意味着 Google Cloud 在单次训练任务中能够支撑的参数规模远超竞争对手,这是一个极具说服力的销售锚点。
2. Rubin 架构的落地节奏与 Google 的首发地位
Vera Rubin 是 NVIDIA 在 Hopper 和 Blackwell 之后的下一代 GPU 架构(基于 Rubin 命名),Google Cloud 获得「首个云端机密计算 Blackwell GPU」和 Rubin 驱动的 A5X 实例,显示出 Google 在 NVIDIA 新架构商业化中的优先地位。这并非偶然——Google 既是 NVIDIA 数据中心业务的最大买家之一(常年占 NVIDIA营收的 15-25%),也是云端 AI 市场的直接竞争者,双方的利益绑定极为复杂。NVIDIA 需要 Google 作为 Rubin 的标杆验证客户;Google 也需要 NVIDIA 最前沿的 GPU 来支撑 Gemini Ultra 级别的训练需求。
3. 机密计算:争夺监管敏感行业的关键棋子
「首个云端机密计算 Blackwell GPU」这一描述尤为重要。在 AI 监管趋严的背景下(EU AI Act、医疗数据合规、金融监管),企业对于将 AI 训练和推理负载放在云端的最大顾虑是数据安全与主权。机密计算(Confidential Computing)通过硬件级加密隔离,确保即使云服务商本身也无法访问客户数据,Google Cloud 借此拿下对数据安全有严格要求的垂直行业客户(如医疗影像、金融建模、政府 AI),这是 AWS 和 Azure 尚未形成压倒性优势的空隙。
4. Agent 平台整合:模型层与框架层的双线竞争
Nemotron(NVIDIA 开源推理模型)和 NeMo(NVIDIA 框架)接入 Gemini Enterprise Agent Platform,表面上是一个合作伙伴生态动作,实际上意味着 NVIDIA 在 Agent 框架层面放弃了与 Google 竞争、选择拥抱;反过来,Google 也承认了 NeMo 作为企业 AI 基础设施框架的广泛采用度。这是一种双向依赖:NVIDIA 需要 Google 的云分发渠道和 Gemini 模型能力;Google 需要 NVIDIA 的推理优化和企业客户渠道。
值得关注
- A5X 实例的正式 GA 时间:Vera Rubin A5X 目前是 announcement 阶段,实际向普通企业客户开放的时间窗口将直接影响 AWS 和 Azure 的竞争响应策略。
- 机密计算 Blackwell GPU 的合规认证:Google Cloud 是否已通过 SOC 2、FedRAMP High 或 EU AI Act 下的认证,这决定了哪些监管敏感行业客户可以实际采购。
- Gemini Enterprise Agent Platform 与 Azure Agent Service 的差异化:随着两大云同时押注 Agent 平台,企业客户的选择逻辑将围绕「模型 + 框架 + 成本」三角展开,价格战可能即将开始。
- Nemotron/NeMo 在 Gemini 平台上的实际性能表现:NVIDIA 的推理优化库(如 TensorRT)是否能与 Gemini 的上下文窗口和 multimodality 能力形成协同,这将决定企业用户是否从 Azure 迁移。
- Google Distributed Cloud(GDC)上的 Gemini 延迟数据:边缘部署场景下 Gemini 的首 token 延迟和吞吐量,是主权 AI 客户(政府、电信公司)最关注的指标,将直接决定 Google 是否能拿下这类大单。
信源行:官方来源:NVIDIA 官推 @nvidia(2026-04-22);背景报道:Google Cloud Next 2026 主题演讲全程报道(The Verge / Wired);机密计算 GPU 行业分析(Synergy Research Group 2026 Q1 云基础设施报告);NVIDIA Rubin 架构技术白皮书(AnandTech 2026 年 3 月)。