Meta 与 AWS 合作:数千万颗 Graviton 核心加入 AI 算力池
Meta 宣布与 AWS 达成协议,将数千万颗 Graviton 核心纳入 AI 基础设施组合,支撑 Meta AI 与 Agent 体验的规模化运行。
查看原文核心要点
2026年4月24日,Meta 与 AWS 正式宣布达成战略合作协议,将 AWS 旗下数千万颗 Graviton 处理器核心纳入 Meta AI 基础设施组合。这一合作的核心目的是支撑 Meta AI 助手及 Agent 相关体验的大规模线上运行。这是 Hyperscaler(超大规模云厂商)之间首次在 AI 推理基础设施领域展开如此深度的交叉合作,标志着云端 AI 算力供给格局正在发生结构性变化。
原文 + 中文翻译
原文:"Meta and AWS are partnering to bring millions of Graviton cores to our AI infrastructure to power the scale at which our AI and Agent experiences run. This collaboration is a key step in our strategy to build the most efficient and flexible AI infrastructure." — @AIatMeta
翻译:"Meta 与 AWS 达成合作伙伴关系,将数百万颗 Graviton 核心引入我们的 AI 基础设施,以支撑我们的 AI 与 Agent 体验所运行的规模。这一合作是我们构建最高效、最灵活 AI 基础设施战略的关键一步。" — @AIatMeta
深度解读
一、为什么重要:打破"自研芯片闭环"的行业惯例
过去五年,Hyperscaler(超大规模云厂商)普遍遵循"自研芯片、自建数据中心、自给自足"的路径。Meta 自身已投入大量资源开发定制芯片,包括训练用的 MTIA(Meta Training/推断加速器)和推理芯片系列。然而此次与 AWS 的合作表明,即使拥有强势自研能力的公司,也意识到在 AI 推理的规模化部署上,外部云端芯片供给在成本效益和弹性扩展方面具备不可替代的优势。
数千万颗 Graviton 核心的体量相当于 AWS 自身数十个大型可用区(Availability Zone)的算力储备。对 Meta 而言,这意味着可以在不显著增加资本支出的情况下,快速获得额外的 AI 推理吞吐能力——这对 Meta AI 助手月活用户的快速增长以及 Agent 场景的多并发请求至关重要。
二、技术含义:ARM 架构在 AI 推理场景的全面成熟
Graviton 系列采用 ARM Neoverse 架构,在能效比(Performance per Watt)上相较传统 x86 架构具有结构性优势。AI 推理工作负载(尤其是 Transformer-based 大语言模型的推理)与训练不同,往往具有长时间的内存占用和间歇性计算特征,Graviton 的高内存带宽和片上网络(NoC)设计恰好适配这一需求。
更重要的是,AWS 已在 Graviton 平台上构建了完整的软件栈,包括支持 PyTorch 2.0+ 的原生优化、SageMaker 推理端点以及 EFA(Elastic Fabric Adapter)高速网络互联。这意味着 Meta 的模型可以在几乎不做代码重构的情况下实现 "lift-and-shift"(搬迁式迁移),大幅降低集成成本。
三、商业格局:竞合关系重塑 AI 基础设施供应链
这一合作的深层含义在于:Hyperscaler 之间的竞争边界正在从"谁能提供最强云服务"转向"谁能成为 AI 算力生态的核心节点"。AWS 与 Meta 的合作打破了此前"Google 用 TPU、Azure 用 Maia、Meta 用 MTIA"的各自为战格局,预示着一个更具流动性的 AI 算力市场正在形成。
对 AWS 而言,接入 Meta 这一全球最大的社交及 AI 应用流量入口之一,意味着 Graviton 的实际部署规模进一步扩大,有助于摊薄芯片研发成本,并在与 Google Cloud T2A(基于 T2 实例的 ARM 芯片)和 Azure Cobalt 100 的竞争中获得先发优势。对 Meta 而言,这是以"算力即服务"(Compute-as-a-Service)模式快速补足算力缺口的务实选择,也为其 Agent 平台的商业化加速提供了基础保障。
值得关注
- 用户规模影响:Meta AI 助手的月活用户数已在 2026 年 Q1 突破 5 亿节点,合作后推理延迟是否出现显著下降值得关注。
- 自研芯片调整:Meta 是否会在 MTIA 的后续路线图中重新分配训练 vs. 推理的芯片资源配比,MTIA 2.0 的发布时间窗口(预期 2026 年下半年)是重要观察点。
- Graviton 性能迭代:AWS 已在规划 Graviton 4(基于 Neoverse N2 架构),预计 2026 年 Q4 量产。新芯片是否能进一步提升 AI 推理吞吐密度(tokens/sec/core)将是技术层关注焦点。
- 多云策略扩展:Meta 是否会进一步与 Google Cloud(基于 TPU)或 Azure(基于 Maia)展开类似合作,形成"多云算力池"?这一趋势将直接影响芯片厂商的市场格局。
- 竞争对手响应:Google Cloud 和 Microsoft Azure 是否会推出针对大型 AI 应用商(如 OpenAI、Anthropic)的专项算力合作计划,以应对 AWS 的这一战略动作?
信源行:
原文链接:@AIatMeta 官方公告
背景报道:
· AWS 官方 Graviton 系列技术演进页面
· Meta MTIA 芯片技术博客(Meta AI 官网)