← 返回资讯
产品发布 @ollama 2026-04-02

Ollama:首批支持 Gemma 4 全系列四款模型

Ollama 第一时间支持 Google Gemma 4 全部四款模型(E4B/E2B/26B MoE/31B Dense),需 Ollama 0.20+ 版本。

查看原文
AI 资讯解读

核心要点

2026年4月2日,本地推理框架 Ollama 宣布已第一时间支持 Google Gemma 4 全部四款模型,包括 E4B、E2B、26B MoE 以及 31B Dense 变体。此次支持要求 Ollama 版本 0.20 及以上。Gemma 4 作为 Google 最新的开源多模态模型系列,其发布即获得 Ollama 的快速适配,标志着开源本地推理生态对前沿模型的响应效率进一步提升。

原文 + 中文翻译

原文:
@ollama: Gemma 4 is here. All 4 models now available on Ollama — E4B, E2B, 26B MoE, and 31B Dense. Requires Ollama 0.20+. Start chatting in seconds: ollama run google/gemma-4-flash
翻译:
Gemma 4 来了。全部四款模型现已上线 Ollama——E4B、E2B、26B MoE 和 31B Dense。需 Ollama 0.20+ 版本。几秒内即可开始对话:ollama run google/gemma-4-flash

深度解读

开源本地推理的"零时差"适配成为新常态 此次 Ollama 在 Gemma 4 发布后极短时间内即完成四款模型的全系列适配绝非偶然。这背后反映的是 Ollama 团队与 Google 之间日益紧密的合作关系,同时也说明开源社区对前沿模型的支持流程已高度标准化。从技术层面看,Ollama 的模型库更新机制使其能够快速集成新模型——只需完成模型权重转换(通常由社区贡献或厂商直接提供)与 GGUF 格式封装,即可在官方 Registry 中上线。对于 Gemma 4 这样有 Google 背书的模型,其权重获取与格式转换的障碍几乎为零,这为"首发支持"提供了便利条件。 Gemma 4 四款模型的差异化定位 值得注意的是,Gemma 4 采用了不同于单一模型的"家族战略":E4B 和 E2B 定位轻量级高效推理场景,面向资源受限的边缘设备和个人开发者的本地部署需求;26B MoE 采用混合专家架构,通过稀疏激活降低计算成本,在保持较强推理能力的同时显著减少显存占用;31B Dense 则是传统稠密架构,瞄准需要更强单次推理质量的场景。这种多规格、多架构的设计思路,使用户可以根据硬件条件和任务需求灵活选择——而 Ollama 的跨架构支持恰好为这种灵活性提供了统一的使用接口。对于企业用户而言,这意味着可以在本地测试不同规格的 Gemma 4 变体,无需依赖云端 API 或在不同推理框架之间切换。 Ollama 生态的市场意义 从市场竞争角度,Ollama 的"首发支持"策略具有重要的生态意义。Anthropic Claude 系列、OpenAI GPT 系列通常通过官方 API 主导市场,而开源模型(Llama、Gemma、Mistral 等)的本地部署市场则由 Ollama、llama.cpp、vLLM 等框架瓜分。Ollama 通过优先支持新模型、降低本地部署门槛,正在成为开源模型本地推理的事实标准。0.20+ 版本的要求也暗示此次支持可能涉及新的运行时优化(如对 MoE 架构的特殊调度、对 Gemma 4 新特性的适配),这将进一步巩固 Ollama 在本地推理赛道的技术领先优势。

值得关注

信源行:
原文链接:https://x.com/ollama/status/2039738348647108680
背景报道:
Google DeepMind Gemma 4 发布公告
Ollama 官方博客(0.20 版本更新说明)

本解读由 AI 自动生成,仅供参考。请以原文为准。