← 返回资讯
产品发布 @nvidia 2026-04-22

NVIDIA×Google Cloud:Vera Rubin A5X 实例扩展至近百万 GPU

Google Cloud Next 上,NVIDIA 与 Google Cloud 宣布扩大合作:推出 Vera Rubin 驱动的 A5X 实例(可扩展至近 100 万 Rubin GPU),Gemini 登陆 Google Distributed Cloud,首个云端机密计算 Blackwell GPU,Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。

查看原文
AI 资讯解读

核心要点

2026 年 4 月 22 日,NVIDIA 与 Google Cloud 在 Google Cloud Next 大会上宣布扩大战略合作:推出基于 Vera Rubin 架构的 A5X 实例,最高可扩展至近 100 万块 Rubin GPU 集群;同时 Gemini 大模型登陆 Google Distributed Cloud(GDC),推出业界首个云端机密计算 Blackwell GPU,并将 Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。此轮合作标志着 Google Cloud 在 AI 基础设施层面与 NVIDIA 的绑定深度进一步跃升。

原文 + 中文翻译

原文:"Announcing expanded collaboration with Google Cloud: Vera Rubin-powered A5X instances scaling to ~1 million Rubin GPUs, Gemini landing on Google Distributed Cloud, first cloud confidential computing Blackwell GPU, and Nemotron/NeMo on Gemini Enterprise Agent Platform."

翻译:"宣布与 Google Cloud 扩大合作:推出 Vera Rubin 驱动的 A5X 实例,可扩展至约 100 万块 Rubin GPU,Gemini 登陆 Google Distributed Cloud,业界首个云端机密计算 Blackwell GPU,以及 Nemotron/NeMo 接入 Gemini Enterprise Agent Platform。"

深度解读

1. 百万级 GPU 集群:超大规模 AI 基础设施的军备竞赛

将 A5X 实例扩展上限定在「近 100 万」 Rubin GPU,不是一个技术极限测试,而是一个商业宣言。在 2026 年这个时间节点,AWS 有 Trainium 芯片自研路径,Microsoft Azure 与 OpenAI 深度绑定,Google Cloud 需要在 GPU 规模上建立压倒性优势,以吸引需要训练超大规模模型的客户(主权 AI 政府客户、基础模型公司、超大规模企业)。100 万 GPU 级别的集群,意味着 Google Cloud 在单次训练任务中能够支撑的参数规模远超竞争对手,这是一个极具说服力的销售锚点。

2. Rubin 架构的落地节奏与 Google 的首发地位

Vera Rubin 是 NVIDIA 在 Hopper 和 Blackwell 之后的下一代 GPU 架构(基于 Rubin 命名),Google Cloud 获得「首个云端机密计算 Blackwell GPU」和 Rubin 驱动的 A5X 实例,显示出 Google 在 NVIDIA 新架构商业化中的优先地位。这并非偶然——Google 既是 NVIDIA 数据中心业务的最大买家之一(常年占 NVIDIA营收的 15-25%),也是云端 AI 市场的直接竞争者,双方的利益绑定极为复杂。NVIDIA 需要 Google 作为 Rubin 的标杆验证客户;Google 也需要 NVIDIA 最前沿的 GPU 来支撑 Gemini Ultra 级别的训练需求。

3. 机密计算:争夺监管敏感行业的关键棋子

「首个云端机密计算 Blackwell GPU」这一描述尤为重要。在 AI 监管趋严的背景下(EU AI Act、医疗数据合规、金融监管),企业对于将 AI 训练和推理负载放在云端的最大顾虑是数据安全与主权。机密计算(Confidential Computing)通过硬件级加密隔离,确保即使云服务商本身也无法访问客户数据,Google Cloud 借此拿下对数据安全有严格要求的垂直行业客户(如医疗影像、金融建模、政府 AI),这是 AWS 和 Azure 尚未形成压倒性优势的空隙。

4. Agent 平台整合:模型层与框架层的双线竞争

Nemotron(NVIDIA 开源推理模型)和 NeMo(NVIDIA 框架)接入 Gemini Enterprise Agent Platform,表面上是一个合作伙伴生态动作,实际上意味着 NVIDIA 在 Agent 框架层面放弃了与 Google 竞争、选择拥抱;反过来,Google 也承认了 NeMo 作为企业 AI 基础设施框架的广泛采用度。这是一种双向依赖:NVIDIA 需要 Google 的云分发渠道和 Gemini 模型能力;Google 需要 NVIDIA 的推理优化和企业客户渠道。

值得关注

信源行:官方来源:NVIDIA 官推 @nvidia(2026-04-22);背景报道:Google Cloud Next 2026 主题演讲全程报道(The Verge / Wired);机密计算 GPU 行业分析(Synergy Research Group 2026 Q1 云基础设施报告);NVIDIA Rubin 架构技术白皮书(AnandTech 2026 年 3 月)。

本解读由 AI 自动生成,仅供参考。请以原文为准。