Claude Advisor API 上线:Sonnet/Haiku 可在运行中调用 Opus 获取决策指导
开发者可在 Messages API 中添加 Advisor 工具,当 Sonnet 或 Haiku Agent 在执行中遇到复杂决策时,会自动咨询 Opus 获取计划方案,全程在单次 API 请求中完成。
查看原文核心要点
2026年4月9日,Anthropic 正式上线 Claude Advisor API,允许开发者在 Messages API 中集成 Advisor 工具。Sonnet 或 Haiku Agent 在执行复杂任务时,可自动触发 Opus 作为"决策顾问"提供计划方案,整个协作过程在单次 API 请求内完成,无需额外的网络往返或上下文拼接。这一设计打破了传统模型调用中"强模型预规划、弱模型执行"的范式,首次实现了运行时的动态能力分级协作。
原文 + 中文翻译
原文:Anthropic just launched Claude Advisor API — giving Sonnet & Haiku Agents the ability to call Opus in real time for decision guidance. Available now in the Messages API.
翻译:Anthropic 刚刚发布 Claude Advisor API——让 Sonnet 和 Haiku Agent 能够实时调用 Opus 获取决策指导。现已在 Messages API 中上线。
深度解读
从"预规划"到"运行时协商"的范式转移
传统 AI Agent 架构中,强弱模型的协作通常发生在两个层面:要么是在 prompt 层面预先设计"先用强模型拆解任务,再用弱模型执行"的管道,要么是让弱模型在遇到困难时发起新的 API 请求调用强模型。这两种方式都存在显著缺陷:前者导致 token 浪费(强模型的完整能力被预加载到每次调用中),后者则增加了延迟与上下文断裂的风险。Claude Advisor API 的核心创新在于,它将 Opus 的咨询能力嵌入到 Sonnet/Haiku 的单次请求执行流中——当 Haiku 检测到决策节点时,底层基础设施自动路由至 Opus 获取方案,返回后继续执行,无需开发者手动管理状态或拼接对话历史。这本质上是一种运行时能力分级(Runtime Capability Tiering),而非预先绑定的管道。
成本控制与能力释放的双重价值
对于开发者而言,这一设计的商业逻辑非常清晰:Haiku 的 API 价格约为 Opus 的十分之一,但在复杂推理场景中能力有限; Opus 则代表了 Anthropic 最高推理水准,但成本较高。Advisor API 让开发者可以将 Haiku 作为"执行主体",仅在真正的决策瓶颈处引入 Opus 的判断力。这不是"弱模型调用强模型"那么简单——它意味着 Haiku 可以在运行过程中动态识别"哪些问题值得动用 Opus",而非被动等待开发者预设的触发条件。从工程视角看,这降低了 AI Agent 的开发门槛:开发者无需精确预判任务复杂度并手工设计路由逻辑,模型自身可以完成这个判断。
对 MCP 生态与 Agent 市场的战略意义
Anthropic 于 2024 年底推出 Model Context Protocol(MCP),本质上是将 AI 与外部工具/数据源的连接标准化。Advisor API 可以被视为 MCP 精神在"模型间协作"方向的延伸——不只是让 AI 调用工具,也让弱模型调用强模型,形成一种模型间的协议层。这对 Anthropic 的竞争定位至关重要:在 OpenAI 持续强化 GPT-4o 的多模态 Agent 能力、Google 推进 Gemini 2.0 Flash Thinking 的背景下,Anthropic 选择在"模型协作效率"这一细分领域建立差异化。如果 Advisor API 被广泛采用,开发者构建 Sonnet/Haiku-based Agent 时会产生更强的 Anthropic 生态锁定效应——因为只有 Anthropic 的模型体系支持这种原生的运行时协作。
值得关注
- 价格模型的透明度:Anthropic 尚未公布 Advisor API 的具体计费规则——调用 Opus 获取建议是否额外收费,还是按整体 token 消耗计算?这直接影响开发者的成本建模与迁移决策。预计 4 月底前的 API 文档更新会披露更多细节。
- Opus 被调用的触发条件:Haiku/Sonnet 在什么情况下会决定"需要咨询 Opus"?是模型自身的置信度机制触发,还是 Anthropic 在后端预设了特定任务类型的路由规则?这一黑盒机制的可解释性将成为开发者社区的讨论焦点。
- 竞品的跟进速度:OpenAI 是否会在 GPT-4o 或未来的 o3-mini 中实现类似的"弱模型动态调用强模型"能力?Google DeepMind 对 Gemini 系列的模型间协作有何规划?这场"模型协作协议"的标准之战可能在下季度见分晓。
- 企业级采用场景:金融分析、医疗决策支持、法律文档处理等需要"快速执行+严谨判断"复合能力的场景,将是 Advisor API 的天然试验场。Anthropic 是否会与 Snowflake、Salesforce 等企业平台达成合作,将 Advisor 能力嵌入 B2B 工作流?
- 延迟与吞吐量的实测数据:Advisor 调用的端到端延迟是多少?在高并发 Agent 场景下,Opus 作为"共享决策节点"是否会成为瓶颈?开发者社区的性能基准测试(预计 5 月中旬出现)将给出关键答案。
信源行:
原文链接:Anthropic 官方推文
背景报道:
· Anthropic 官方博客(待发布)
· TechCrunch: Anthropic 推出 Advisor API 实现模型间实时协作
· The Verge: Claude 新 API 让小型模型获得大型模型的决策支持