Ollama 云端上线 DeepSeek V4 Pro 可直接对接 Claude Code
Ollama 宣布 DeepSeek V4 Pro 已上线其云端服务,可通过 ollama launch claude / hermes 命令直接对接 Claude Code 或 Hermes Agent,也支持 ollama run 本地调用。
查看原文核心要点
2026 年 4 月 26 日,本地推理工具 Ollama 在官方 X(@ollama)宣布:DeepSeek V4-Pro 已上线 Ollama Cloud。开发者只需一行命令就能把 Claude Code / Hermes Agent / OpenClaw 等 Agent 应用直接切到 DeepSeek V4-Pro 后端,不需要再通过 Anthropic API、不需要自托管 1.6T MoE 推理。比 4-23 上线的 V4-Flash 晚 3 天,这次是 1.6T 旗舰版本的云端就绪。
原推文 + 命令
原文:"DeepSeek v4 Pro is now on Ollama's cloud! 🚀🚀🚀
Try it with Claude Code: ollama launch claude --model deepseek-v4-pro:cloud
Try it with Hermes Agent: ollama launch hermes --model deepseek-v4-pro:cloud
Chat with the model: ollama run deepseek-v4-pro:cloud"
翻译:"DeepSeek V4-Pro 已上线 Ollama 云端!通过 Claude Code 使用:ollama launch claude --model deepseek-v4-pro:cloud;通过 Hermes Agent 使用:ollama launch hermes ...;直接对话:ollama run deepseek-v4-pro:cloud。"
这条新闻的真正信号 — 三层影响
1. 一行命令把 Claude Code 后端切到 DeepSeek。
Claude Code 是 Anthropic 自家的 CLI Agent 产品(cursor 风格的终端 coding agent)。它默认调 Claude Opus 4.7 / Sonnet 4.6 走 Anthropic 自己 API。Ollama 通过 ollama launch claude 命令给 Claude Code 加了一层"runtime 路由"——后端可以是 Anthropic、可以是 DeepSeek,对工具本身透明。
这意味着开发者可以"用 Claude Code 的 UX,享受 DeepSeek V4 的价格"。Anthropic 提供 IDE 体验、DeepSeek 提供 token,商业利益分离——这对 Anthropic 是结构性威胁。
2. US-hosted 解决了合规/数据主权问题。
DeepSeek 自家 API 在中国大陆机房,对欧美企业是天然的 compliance 障碍——用户提示词 + 源码会落在中国司法管辖区。Ollama Cloud 这次明确标注 "US-hosted"(推文原文),即推理层在美国境内,prompt + code 不离开美国法律边界。
这一招直接把 DeepSeek 拉进了美国大型企业 / 金融 / 医疗等高合规客户的可选名单——之前只能用 Anthropic / OpenAI 的客户,现在多了一个 1/28 价格的选择。
3. Ollama 从"本地推理工具"升级为"云端 + 多模型路由"平台。
Ollama 原本是开源本地推理工具(在 mac / linux 跑模型)。这次推出的 Ollama Cloud + ollama launch <tool> --model 命令机制,让 Ollama 从"开发者下载 7B/14B 小模型本地跑"的工具,进化成"开发者一行命令把任何 Agent 应用接入任意后端模型"的元平台。
这是 Ollama 在 2026 商业化的关键一步——单纯本地推理工具不赚钱,但如果它成为 Agent 时代的"runtime 路由"层,价值会被重新评估。
价格 + 工具组合的实际威力
把 4 月 24-26 三件事叠起来看,DeepSeek V4 + Ollama 的组合产生了一个非常具体的开发者工作流:
- 04-24:V4-Pro 限时 75% 折扣(V4-Pro 输出 ¥6 / $0.87 per 1M)
- 04-25/26:缓存命中价永久降至原价 1/10(V4-Pro 缓存命中 ¥0.025/M tokens 全球新低)
- 04-26:Ollama Cloud 上线 V4-Pro,
ollama launch claude --model deepseek-v4-pro:cloud一行接 Claude Code,US-hosted 合规
一个 Cursor / Claude Code / Cline 用户的真实迁移成本:1 行命令 + 0 美元配置成本。token 成本下降幅度:从 Anthropic Opus $25/M output → DeepSeek V4-Pro $0.87/M = 1/28 节省 96.5%。这是 2026 年 Anthropic 在编码 Agent 战场上面临的最具体威胁。
对 Anthropic / OpenAI 的具体压力
- Anthropic Claude Code 的"差异化"被削弱:Claude Code 之前的卖点是"Anthropic 自家模型 + IDE 优化"。现在用户可以用 Claude Code 工具 + DeepSeek 模型——两者解耦后,Claude Code 工具自身的护城河(vs Cursor / Cline / OpenClaw)会被重新审视
- Anthropic 必须在价格 / 工具捆绑两条路里选一条:要么降 Opus / Sonnet API 价格,要么把 Claude Code 和 Anthropic 模型做更深度耦合(拒绝任意后端)
- OpenAI Codex 也面临同类压力:Codex 默认 GPT-5.5 后端 + 自家 API。Ollama / OpenRouter / LiteLLM 等路由层都在推"任意模型 + 任意工具",OpenAI 的工具 + 模型耦合也会被打开
值得关注
- Ollama Cloud 的具体定价:推文未公开 Ollama Cloud 的加价率(DeepSeek 自己 V4-Pro 输出 $0.87/M,Ollama Cloud 加价多少?10-30%?这决定了 Ollama 在路由层的经济模型)
- 更多 Agent 工具会被接入:Cursor / Cline / Aider / Continue 等是否都会出现
ollama launch <tool>命令?2-4 周内会有连锁动作 - Anthropic 的反应:Anthropic 是否会通过 Claude Code 的 license / TOS 限制"用我们的工具但走别人的模型"?或者反向跟 Ollama 合作把 Claude Sonnet 做进 Ollama Cloud?
- OpenRouter 等老路由层 vs Ollama Cloud:OpenRouter 是聚合 100+ 模型的市场,Ollama Cloud 押注"自己 + DeepSeek 等少数旗舰"。两种路由层模型谁会赢?
- "DeepSeek 美国化"会不会引发监管反应:DeepSeek 模型权重 + 中国研发团队,但部署在美国机房——这种"权重出海 + 推理本地化"的模式美国监管(US Government / CFIUS)会怎么反应?2025 年针对中国 AI 模型的限制会不会扩展到这种"曲线上岸"路径
原文来源:@ollama 推文 2026-04-26 · Ollama 模型库 deepseek-v4-pro
背景报道:Decrypt: V4-Pro 成本比 GPT-5.5 Pro 低 98% · Gate News: V4-Flash 上线 Ollama Cloud 美国机房(4-23) · DeepSeek API Docs: V4 Preview Release