← 返回资讯
产品发布 @ollama 2026-04-07

Ollama:GLM-5.1 上线,支持 OpenClaw 和 Claude Code 调用

Ollama 宣布支持智谱 GLM-5.1 模型,用户可通过 OpenClaw 或 Claude Code 方式调用云端版本。

查看原文
AI 资讯解读

核心要点

2026年4月7日,Ollama 官方宣布其平台新增对智谱 AI(Zhipu AI)最新旗舰模型 GLM-5.1 的支持。此次集成的关键特征在于:用户不再局限于本地模型部署,而是可以通过 OpenClawClaude Code 两种调用路径访问 GLM-5.1 的云端托管版本。这一动作标志着 Ollama 战略定位的微妙延伸——从"本地模型运行工具"演化为"多源模型的统一接入层",同时也意味着智谱 AI 正通过多渠道扩大其模型的可用性与触达范围。

深度解读

一、Ollama 的战略转型:从本地跑模型到"模型网关"

Ollama 最初以开源本地推理引擎闻名,其核心价值在于简化 LLM 的本地部署流程(ollama run 一键拉起模型),尤其受个人开发者和极客群体青睐。然而,此次与智谱 GLM-5.1 的集成揭示了一个更宏大的布局:Ollama 正在将自身定位升级为跨云/跨厂商的模型调用抽象层。OpenClaw 和 Claude Code 作为两种接入路径的存在,说明 Ollama 已不满足于仅服务本地场景,而意图成为用户与多个模型供应商之间的"中间件",统一管理 API 路由、认证和请求转发。这种策略与 LangChain、LiteLLM 等中间件平台的功能趋同,但 Ollama 凭借其庞大的本地用户基数和 CLI 体验优势,正在形成差异化竞争。

二、OpenClaw 的角色:互操作性的"桥梁协议"

OpenClaw 在此事件中扮演了关键角色。从命名推断,OpenClaw 是一个开放协议或接口层,旨在实现不同模型厂商之间的互操作性。GLM-5.1 能通过 OpenClaw 被 Ollama 调用,意味着智谱 AI 已加入这一互操作性生态,而非仅依赖自身 API。这意味着开发者在 Ollama 生态内即可无缝切换不同模型,无需为每个模型单独配置 SDK。对行业而言,OpenClaw 若能获得更多厂商支持,将推动"一次集成,到处调用"的标准化进程,类似 HTTP 在 Web 中的地位。

三、Claude Code 的接入:争夺 AI 原生开发者生态

Claude Code 是 Anthropic 面向开发者推出的编码 Agent 产品,以强大的代码能力和 Agent 架构著称。Ollama 支持通过 Claude Code 调用 GLM-5.1 云端版本,这一集成的战略意图值得玩味——它实际上为 Claude Code 用户提供了一种模型可选性:既可以使用 Anthropic 的 Claude 系列,也可以将智谱 GLM-5.1 作为备选或补充模型。这对智谱而言是抢占 Claude Code 生态入口的手段;对 Anthropic 而言,则意味着其 Agent 平台正在演化为"模型无关"(model-agnostic)的调度层。这场围绕开发者生态和 Agent 平台控制权的竞争正在加速。

四、对 GLM-5.1 的竞争力影响

智谱 GLM-5.1 作为国产旗舰级 MoE 大模型,其性能表现一直备受关注。此次通过 Ollama + OpenClaw + Claude Code 三重渠道上线,实质上是将模型的可及性从"API 调用"扩展到"开发工具链集成"。对于企业用户而言,这意味着可以在熟悉的 Ollama CLI 环境中直接接入 GLM-5.1,无需额外学习智谱的 SDK,降低了迁移成本。对于国际开发者社区,Ollama 的全球化用户基础也为 GLM-5.1 提供了天然的海外推广通道。

值得关注

信源行:
原文链接:https://x.com/ollama/status/2041556572334428576
背景报道:Ollama 官方博客(模型库更新日志);OpenClaw 官网(协议规范与参与厂商列表);智谱 AI 官网 zhipuai.cn(GLM-5.1 技术报告)

本解读由 AI 自动生成,仅供参考。请以原文为准。