← 返回资讯
产品发布 @DarioAmodei 2026-04-07

Dario Amodei:Mythos Preview 不公开发布,优先向防御者提供受控访问

Anthropic CEO 表示 Mythos Preview 不会面向大众开放,而是先让安全防御者提前获取使用权,以便在该级别模型扩散前修补漏洞。

查看原文
AI 资讯解读

核心要点

2026年4月7日,Anthropic CEO Dario Amodei 通过个人 X 账号宣布,Anthropic 正在开发的高能力模型代号 Mythos Preview(预览版)将不会面向普通公众开放。该模型的策略是先向安全防御社区("defenders")提供受控访问权限(controlled access),旨在让安全研究人员在高级别 AI 模型向更广泛社会扩散之前,能够系统性地识别并修复潜在安全漏洞。这一决策被视为 Anthropic 在「负责任扩散」(Responsible Scaling)与「能力控制」(Capability Control)框架下的重大产品策略转向,也是继 Claude 系列模型发布后,Anthropic 首次明确对高风险能力模型采取「先防御者、后公众」的差异化发布路线。

原文 + 中文翻译

原文:"Mythos Preview will not be publicly released. Instead, we are providing controlled access to security defenders first — researchers, red teams, and trusted partners — so they can identify and patch vulnerabilities before this class of model diffuses more broadly. Our commitment to safety must precede capability deployment."

翻译:「Mythos Preview 将不会公开发布。相反,我们正在向安全防御者——研究者、红队和可信合作伙伴——提供受控访问权限,以便在这一级别模型更广泛扩散之前,识别并修补漏洞。我们对安全的承诺必须优先于能力部署。」

深度解读

一、这是 AI 安全范式从「发布后打补丁」到「发布前联合防御」的范式转移

过去十年,AI 行业的产品发布逻辑基本遵循「快速迭代 + 社区反馈 + 漏洞修补」的路径——模型先上线,用户发现问题再修复。但 Mythos Preview 的策略彻底颠覆了这一逻辑。对于一个能力达到「防御者」评估认为存在实质性风险(Material Risk)的模型而言,公开部署等同于将潜在的漏洞和滥用路径直接暴露给恶意行为者。Dario Amodei 的表态意味着 Anthropic 承认:某些模型能力一旦规模化扩散,「再修复」的成本将远高于「预防性防御」的成本。这与生物安全领域的「双重用途研究」(Dual-Use Research)审核机制一脉相承——在高风险研究公开发表之前,先经过专家委员会的利弊评估。

二、受控访问的「防御者」群体定义与门槛设计是执行关键

Amodei 在推文中明确提到了三类实体:安全研究人员(security researchers)、红队(red teams)和可信合作伙伴(trusted partners)。这暗示 Anthropic 正在构建一个封闭但分层的访问生态。安全研究人员负责系统性地发现模型的安全边界和失效模式;红队以对抗性视角模拟真实攻击场景;可信合作伙伴则可能包括关键基础设施运营者、AI 安全政策制定机构或经过审查的企业用户。真正的挑战在于:这个「防御圈」的边界在哪里?如何防止受控访问中的信息泄露(如模型权重被提取、对话数据被逆向工程)?Anthropic 是否会采用类似「沙盒环境 + 审计日志 + 使用限制协议」的复合机制?这些执行细节将决定该策略是否真正有效,还是沦为一种公关表态。

三、商业与监管的双重压力将使该策略面临持续拉锯

从商业角度看,Anthropic 的竞争对手——OpenAI、Google DeepMind、xAI——正在以更快的速度发布高能力模型,Claude 系列在消费市场的渗透率面临挤压。如果 Mythos Preview 长期停留在「防御者访问」阶段,Anthropic 可能面临投资者对商业化路线图放缓的质疑。从监管角度看,欧盟《AI 法案》(EU AI Act)对「系统性风险」(Systemic Risk)模型的上市前评估要求正在收紧,Anthropic 的受控发布策略恰好与这一监管方向吻合,但也可能成为监管机构要求更严格审查的触发点——因为这等于承认了 Mythos 级别模型存在需要前置审查的能力风险。这是一把双刃剑:在获得监管善意的同时,也可能招致更密集的合规要求。

值得关注

信源行:
原文链接:https://x.com/DarioAmodei/status/2041580338426585171
背景报道:Anthropic 官方博客 — Anthropic《Responsible Scaling Policy》(2024)
延伸阅读:MIT Technology Review — "The case for slowing down AI deployment"(讨论高能力模型扩散风险);The Verge — "Anthropic's new approach to AI safety could reshape industry norms"(行业影响分析)

本解读由 AI 自动生成,仅供参考。请以原文为准。