← 返回资讯
产品发布 @claudeai 2026-04-09

Claude Advisor API 上线:Sonnet/Haiku 可在运行中调用 Opus 获取决策指导

开发者可在 Messages API 中添加 Advisor 工具,当 Sonnet 或 Haiku Agent 在执行中遇到复杂决策时,会自动咨询 Opus 获取计划方案,全程在单次 API 请求中完成。

查看原文
AI 资讯解读

核心要点

2026年4月9日,Anthropic 正式上线 Claude Advisor API,允许开发者在 Messages API 中集成 Advisor 工具。Sonnet 或 Haiku Agent 在执行复杂任务时,可自动触发 Opus 作为"决策顾问"提供计划方案,整个协作过程在单次 API 请求内完成,无需额外的网络往返或上下文拼接。这一设计打破了传统模型调用中"强模型预规划、弱模型执行"的范式,首次实现了运行时的动态能力分级协作。

原文 + 中文翻译

原文:Anthropic just launched Claude Advisor API — giving Sonnet & Haiku Agents the ability to call Opus in real time for decision guidance. Available now in the Messages API.

翻译:Anthropic 刚刚发布 Claude Advisor API——让 Sonnet 和 Haiku Agent 能够实时调用 Opus 获取决策指导。现已在 Messages API 中上线。

深度解读

从"预规划"到"运行时协商"的范式转移

传统 AI Agent 架构中,强弱模型的协作通常发生在两个层面:要么是在 prompt 层面预先设计"先用强模型拆解任务,再用弱模型执行"的管道,要么是让弱模型在遇到困难时发起新的 API 请求调用强模型。这两种方式都存在显著缺陷:前者导致 token 浪费(强模型的完整能力被预加载到每次调用中),后者则增加了延迟与上下文断裂的风险。Claude Advisor API 的核心创新在于,它将 Opus 的咨询能力嵌入到 Sonnet/Haiku 的单次请求执行流中——当 Haiku 检测到决策节点时,底层基础设施自动路由至 Opus 获取方案,返回后继续执行,无需开发者手动管理状态或拼接对话历史。这本质上是一种运行时能力分级(Runtime Capability Tiering),而非预先绑定的管道。

成本控制与能力释放的双重价值

对于开发者而言,这一设计的商业逻辑非常清晰:Haiku 的 API 价格约为 Opus 的十分之一,但在复杂推理场景中能力有限; Opus 则代表了 Anthropic 最高推理水准,但成本较高。Advisor API 让开发者可以将 Haiku 作为"执行主体",仅在真正的决策瓶颈处引入 Opus 的判断力。这不是"弱模型调用强模型"那么简单——它意味着 Haiku 可以在运行过程中动态识别"哪些问题值得动用 Opus",而非被动等待开发者预设的触发条件。从工程视角看,这降低了 AI Agent 的开发门槛:开发者无需精确预判任务复杂度并手工设计路由逻辑,模型自身可以完成这个判断。

对 MCP 生态与 Agent 市场的战略意义

Anthropic 于 2024 年底推出 Model Context Protocol(MCP),本质上是将 AI 与外部工具/数据源的连接标准化。Advisor API 可以被视为 MCP 精神在"模型间协作"方向的延伸——不只是让 AI 调用工具,也让弱模型调用强模型,形成一种模型间的协议层。这对 Anthropic 的竞争定位至关重要:在 OpenAI 持续强化 GPT-4o 的多模态 Agent 能力、Google 推进 Gemini 2.0 Flash Thinking 的背景下,Anthropic 选择在"模型协作效率"这一细分领域建立差异化。如果 Advisor API 被广泛采用,开发者构建 Sonnet/Haiku-based Agent 时会产生更强的 Anthropic 生态锁定效应——因为只有 Anthropic 的模型体系支持这种原生的运行时协作。

值得关注

信源行:
原文链接:Anthropic 官方推文
背景报道:
· Anthropic 官方博客(待发布)
· TechCrunch: Anthropic 推出 Advisor API 实现模型间实时协作
· The Verge: Claude 新 API 让小型模型获得大型模型的决策支持

本解读由 AI 自动生成,仅供参考。请以原文为准。