Anthropic 这步棋赢麻了
技术行业有一个常见的误区把「用更大的模型」等同于「更好的解决方案」。Anthropic 的 Advisor Strategy 用一种优雅的方式证明了——聪明地组合往往比粗暴地堆料更有效。看到一篇推文说是 Anthropic 又新发布了一种新的形式叫做advisor strategy翻译为战略顾问。它的主要形式不难理解我给大家解读下The advisor strategy on the Claude Platform首先 Advisor 是一个「决策者」的角色这个角色也是一个战略顾问全能型人才负责把控一切但是它不主要做事儿这个角色由 Opus 4.6 来承载。Executor 是一个「执行者」角色这个角色的定位是工匠说白了就一臭打工的负责执行干活运行自循环。Executor 可以做很多任务用很多 ide、db、中间件、框架、前端想咋用咋用把活干了就行。看到这里你也许会发现这 TM 不就是像极了我现在天选打工人的角色吗只不过这次的对象换成了 Claude Code这不是天选打工人了这是天选 Agent。最终还是 Sonnet 和 Haiku 背锅扛下了所有。好了看到这里如果你理解了下文就不用看了如果你觉得有点意思不妨看下去多陪我一会儿。这不是一个小功能更新。在我看来这是 Anthropic 对当前 AI Agent 领域最深刻矛盾的一次正面回应。一个真实的行业痛点过去一年AI Agent 的叙事非常热闹。大家都在讲「让 AI 自主完成复杂任务」但真正把 Agent 跑在生产环境里的团队都知道成本真的烧不起。逻辑很简单。你希望 Agent 足够聪明能在复杂场景下做出正确判断——那你就得用最强的模型。但最强的模型意味着最贵的推理成本。而 Agent 的特点偏偏是调用频繁、上下文长、工具交互多每一轮都在烧钱。很多团队的做法是「忍痛用大模型」或者「硬着头皮用小模型然后接受更高的失败率」。这两条路都不太走得通。Anthropic 的解法让小模型开车大模型坐副驾Advisor Strategy 的核心思路说起来其实非常直觉Sonnet或 Haiku负责完整的任务执行——调用工具、读写文件、和用户交互、循环迭代所有脏活累活它来干。当它遇到超出自身能力的决策点时它会主动「举手」把问题交给 Opus。Opus 作为顾问介入——它不直接操作任何工具不生成面向用户的输出它只做一件事给出方向性判断。然后 Sonnet 拿着这个判断继续执行。技术实现上Anthropic 把它做成了 Messages API 里的一个内置工具类型advisor_20260301。开发者只需要在请求里加一个工具声明就能激活这个模式。所有的模型间通信都发生在一次 API 请求内部不需要额外的网络往返。这里面有一个关键设计max_uses参数。你可以精确控制每次请求中 Opus 最多被咨询几次。这不是一个「要么全用大模型要么全用小模型」的二选一而是一个连续的、可调节的智能-成本光谱。数据说话Anthropic 给出的基准测试数据相当有说服力Sonnet Opus 顾问的表现是——在 SWE-bench Multilingual 上相比 Sonnet 单独运行提升了 2.7 个百分点同时每个 Agent 任务的成本反而降低了 11.9%。性能更好成本更低这在大模型领域是非常少见的「帕累托改进」。image-20260410083610654更有意思的是Haiku Opus 顾问的数据。Haiku 单独在 BrowseComp 上只能拿到 19.7% 的分数加上 Opus 顾问之后直接翻倍到 41.2%——虽然还追不上 Sonnet 单独跑的成绩但成本只有 Sonnet 的 15%。对于那些高并发、对成本敏感但又不能容忍太低智能水平的场景这个组合打开了一个全新的可用区间。image-20260410083727340为什么说这步棋走得漂亮这个策略的精妙之处不仅仅在于技术实现更在于它背后的产品哲学。第一它重新定义了「模型能力」的边界。以前我们评价一个模型基本就是看它的绝对能力上限。Opus 最强所以要做难事就得用 Opus。但 Advisor Strategy 告诉你一个模型的有效能力不只取决于它自身的参数量还取决于它能调用什么级别的「大脑」。Sonnet 加上 Opus 顾问在很多任务上的表现已经逼近甚至超过了 Opus 直接执行——但成本天差地别。这本质上是在说模型的能力可以被组合出来而不是只能被训练出来。第二它把 Agent 架构从「分治」推向了「升级」。之前业界主流的多模型协作模式是 Orchestrator 模式——大模型做规划、分解任务小模型去执行子任务。这个模式的问题在于大模型承担了全部的规划成本而且任务分解本身就是一种信息损耗。Advisor 模式反过来了。小模型拥有完整的上下文和执行控制权它只在真正需要的时候才去咨询大模型。这意味着大模型的推理能力被用在了刀刃上而不是浪费在那些小模型完全可以自己搞定的常规操作上。第三它给 Anthropic 自己建立了一个完美的商业飞轮。想想看这个功能让开发者有动力同时使用 Anthropic 的多个模型而不是只选其中一个。开发者在 Haiku 的低成本和 Opus 的高智能之间不再是非此即彼而是可以灵活混搭。这意味着 Anthropic 的每个模型层级都有了清晰的商业价值——Haiku 靠量Opus 靠质Sonnet 居中调和。对开发者来说这降低了选择焦虑对 Anthropic 来说这最大化了模型矩阵的整体收入。双赢。对行业的启示Advisor Strategy 的推出让我想到几件更大的事。首先AI 基础设施的竞争正在从「谁的模型最大」转向「谁的调度最聪明」。模型本身的能力当然重要但如何把不同级别的模型编排在一起、让总体的性价比最优化这正在成为新的竞争维度。其次这可能会加速 AI Agent 的真正落地。很多企业不是不想用 Agent是算了一笔账之后觉得 ROI 不划算。如果一个简单的 API 参数调整就能让 Agent 的运行成本降低 85%同时智能水平翻倍那很多之前算不过来的账突然就算得过来了。最后这也给竞争对手们出了一道题。OpenAI、Google 接下来是跟进类似的分层策略还是试图用更便宜的单一大模型来正面竞争这个选择本身就很有看头。写在最后技术行业有一个常见的误区把「用更大的模型」等同于「更好的解决方案」。Anthropic 的 Advisor Strategy 用一种优雅的方式证明了——聪明地组合往往比粗暴地堆料更有效。这让我想起软件工程领域一个古老的道理好的架构不是让每个组件都变成最强的而是让每个组件在最合适的位置发挥恰好的作用。Opus 不需要全程在线它只需要在关键时刻说对那几句话。这不正是「顾问」的精髓吗