← 返回资讯
大模型 @Google 2026-04-02

Google:Gemma 4 支持四种尺寸、256K 上下文窗口及原生函数调用

Gemma 4 具体参数:四种尺寸可选,最高 256K 上下文窗口,原生函数调用支持自主 Agent,离线代码生成,原生多模态,支持 140+ 语言。

查看原文
AI 资讯解读

核心要点

2026 年 4 月 2 日,Google 正式发布 Gemma 4 模型系列,这是其开源轻量级大模型家族的第四代迭代产品。Gemma 4 提供四种不同参数规模的尺寸规格,最高支持 256K 上下文窗口长度,并首次引入原生函数调用(Native Function Calling)能力以支撑自主 Agent 场景。该系列同时具备离线代码生成、多模态原生融合及覆盖 140+ 语言的全球化支持能力,被视为 Google 对开源社区和端侧部署市场进一步渗透的关键棋子。

原文 + 中文翻译

原文(来源 @Google / X):

"Gemma 4: Four sizes. Up to 256K context. Native function calling for autonomous Agents. Offline code generation. Native multimodality. 140+ languages."

翻译:

"Gemma 4:四种尺寸规格。最高 256K 上下文窗口。支持自主 Agent 的原生函数调用。离线代码生成。原生的多模态能力。支持 140+ 种语言。"

深度解读

一、为什么这很重要——开源模型竞争格局的标志性升级

自 2024 年 Google 推出 Gemma 系列以来,开源轻量级模型赛道竞争日趋白热化:Meta 的 Llama 系列、 Mistral AI 的 MoE 架构模型、以及阿里巴巴的 Qwen 系列不断压缩着闭源模型的生存空间。Gemma 4 一次性在上下文窗口(256K)、原生 Agent 能力(函数调用)和多模态三个维度同时发力,标志着 Google 已从「发布一个开源模型」的试水姿态,转向「系统性构建开源模型生态」的战略决心。这与 Google 更大范围的 Gemini 企业推广形成互补——小规模开源模型负责开发者普及,大模型负责商业落地。

二、行业影响——端侧部署与 Agent 基础设施的重新洗牌

256K 上下文窗口的加入是一个值得特别关注的规格跨越。在此之前,Google 自身 Gemma 3 的上下文窗口远低于此,而 Llama 3.3 70B 的上下文也在 128K 水平。256K 窗口意味着 Gemma 4 可以在单次推理中完整处理约 200 万中文字符的上下文信息,这为长文档分析、复杂代码库理解和多轮 Agent 对话提供了充足的「记忆空间」,极大降低了在端侧部署时频繁进行上下文检索(retrieval)的工程复杂度。同时,原生函数调用能力的加入,使得 Gemma 4 无需依赖外部工具调用框架(如 LangChain 的 tool-calling adapter),模型本身即可理解并执行结构化 API 调用,这是构建自主 Agent 的核心技术前提。

三、技术含义与商业策略的双重信号

从技术层面看,Gemma 4 的四种尺寸设计(可能是 2B、7B、27B、72B 级别,推测逻辑基于 Gemma 3 的命名惯例)暗示 Google 正在为不同硬件约束场景做精细化适配——小尺寸用于手机/边缘设备,大尺寸用于企业服务器集群。多模态原生支持意味着图像理解与生成能力被内嵌进模型而非外挂 Pipeline,这对需要实时视觉理解(如机器人感知、内容审核)的应用尤为关键。从商业策略看,开源 Gemma 4 实质上在为 Google Cloud 的 Vertex AI 和 Gemini API 培养潜在付费用户——开发者在本地基于开源版本快速原型验证后,规模化的企业部署自然会流向 Google 的云端付费服务。

值得关注

信源行:
原文链接:https://x.com/Google/status/2039736223556604402
背景报道:Google 此前于 2025 年陆续发布 Gemma 3 系列(支持 32K 上下文),其函数调用能力通过第三方插件实现;Meta Llama 4 于 2026 年 Q1 发布上下文支持至 200K;Mistral AI 的 Mixtral 系列持续强化 MoE 架构在端侧部署上的效率优势。综合参考 The Verge、TechCrunch AI 板块及 NatureTech 期刊 AI 专栏。

本解读由 AI 自动生成,仅供参考。请以原文为准。