深度研报 · Apple AI · 2026.03

Apple Siri 重生:Google Gemini 驱动、屏幕感知、跨应用集成
iOS 26 重大升级

Apple 以每年 $10 亿授权 Google Gemini 1.2 万亿参数定制模型,在 Private Cloud Compute 隐私架构下重塑 Siri。这是 AI 助手市场格局的一次重大洗牌。

Gemini
底层模型驱动
屏幕感知
On-Screen Awareness
iOS 26
首批功能落地
6
信源
核心论断:Apple 选择 Google Gemini 而非自研大模型驱动 Siri,标志着科技巨头在 AI 竞赛中的策略分化——Apple 押注隐私+集成体验,将模型能力外包给 Google,同时用 Private Cloud Compute 确保数据不被 Google 触及。从公开信息看,这可以理解为"你出大脑、我出身体"式的分工合作。

2026 年 1 月 12 日,Apple 与 Google 联合官宣了一项多年期合作:下一代 Apple Foundation Models 将基于 Google Gemini 模型和云技术构建,为 Apple Intelligence 和新一代 Siri 提供动力。[1] 据媒体报道,Apple 每年为此支付约 $10 亿授权费,获得一个据称 1.2 万亿参数的定制 Gemini 模型——据报道比 Apple 此前的云端模型大约 8 倍。[3]

据报道,新 Siri 的首批功能预计随 iOS 26.4/26.5 上线,包括屏幕感知(理解当前屏幕内容)、跨应用集成(跨 Mail/Messages/Calendar 等 App 执行任务)和个人上下文(记住对话历史和用户偏好)。从用户角度看,这仍然是 Siri——只是变得更聪明了。[2]

§1

升级概览:$10 亿换来了什么

从合作架构到落地时间线

Apple 与 Google 的联合声明措辞谨慎但信息量巨大:"下一代 Apple Foundation Models 将基于 Google 的 Gemini 模型和云技术"。这意味着 Apple 放弃了独立追赶 GPT-4/Claude 级别大模型的路线,转而选择"白标"集成 Google 的顶级模型。[1]

$10亿
年度授权费(据媒体报道)
1.2T
参数量(据媒体报道)
8x
较此前模型大(据报道)
多年期
合作期限

合作协议的关键约束:Gemini 的角色将被"白标化"——用户界面中不会出现 Google 品牌,一切交互仍以 Siri 的名义进行。Apple 保留了对用户体验的完全控制权。[4]

时间线:2026 年 1 月 12 日官宣合作 → 据报道,iOS 26.4 首批 Beta(2026 年 2-3 月)→ 部分 Gemini 功能可能推迟至 iOS 26.5(预计 2026 年 5 月)或 iOS 27(预计 2026 年 9 月)。Apple 预计将分阶段发布,以确保质量和稳定性。[5]
§2

核心能力:屏幕感知 + 跨应用集成

Siri 从"语音助手"进化为"上下文感知 Agent"

新 Siri 最大的变化不是回答问题更准确——而是它终于能理解你正在做什么。屏幕感知(On-Screen Awareness)让 Siri 可以读取当前屏幕内容,跨应用集成让它可以在多个 App 之间执行复杂任务。[2]

📱
用户请求
语音/文字/屏幕指向
🍎
设备端处理
Apple Silicon 本地推理
🔒
Private Cloud Compute
Apple 安全云
🤖
Gemini 模型
1.2T 参数推理
兼容设备:新一代 Siri 的 Gemini 功能要求 iPhone 15 Pro 及更新机型。Apple Silicon Mac 和最新 iPad 也将支持。[5]

登录后阅读完整报告

包含详细分析、数据图表、竞品对比、参考文献等

Google 登录