← 返回资讯
产品发布 @sama 2026-04-23

Sam Altman:GPT-5.5 速度媲美 5.4,每任务消耗 token 显著更少

GPT-5.5 每 token 速度与 GPT-5.4 相当但完成任务所需 token 更少,今日于 ChatGPT 和 Codex 上线,API 版本将在安全审查后发布。

查看原文
AI 资讯解读

核心要点

OpenAI 于 2026 年 4 月 23 日通过 CEO Sam Altman 的 X 账号宣布 GPT-5.5 正式上线。该模型的核心突破在于实现了"每 token 速度与 GPT-5.4 持平,但完成同等任务所需的总 token 消耗显著减少"——这意味着在保持响应延迟不变的前提下,OpenAI 通过架构优化或推理策略改进实现了效率跃升。GPT-5.5 已于发布当日在 ChatGPT 和 Codex 面向用户开放,但 API 版本需经过安全审查后方可发布,这一安排在 OpenAI 的模型发布节奏中较为罕见。

原文 + 中文翻译

原文:

"GPT-5.5 has the same per-token speed as GPT-5.4 but completes tasks with significantly fewer tokens. Available in ChatGPT and Codex today; API after safety review."

翻译:

GPT-5.5 与 GPT-5.4 的每 token 速度相同,但完成任务所需的 token 数量显著更少。今日在 ChatGPT 和 Codex 上线;API 版本需经安全审查后发布。

深度解读

从"拼速度"到"拼效率"的战略转向

GPT-5.5 的发布标志着 OpenAI 在模型迭代策略上出现了一个值得注意的转变:不再单纯追求绝对响应速度或 benchmark 分数的提升,而是将优化重心放在"效率"维度。这一定位的调整具有深层含义——在 GPT-5 系列已经将模型规模推至极高水平的情况下,单纯增加参数量带来的边际收益递减,而 token 消耗的优化意味着可以在保持用户体验(响应延迟)不变的前提下,显著降低每一次交互的计算成本。对于 OpenAI 这样需要平衡 API 收入与算力成本的公司而言,这是一次商业层面的精明布局。

效率提升背后的技术可能路径

从技术角度分析,"完成任务所需 token 更少"可能指向几个方向:其一是模型在预训练阶段获得了更强的推理压缩能力,能够用更少的中间步骤达成正确答案,这与 o1/o3 系列的 CoT 压缩技术一脉相承;其二是可能引入了某种动态的 token 节约机制,在推理时自适应地决定何时"收笔";其三也不排除是在 RLHF(人类反馈强化学习)阶段强化了答案简洁性的偏好。无论哪种路径,核心信号是 OpenAI 正在从"让模型想得更深"转向"让模型想得更准"——这与 Anthropic 强调的 "slow thinking" 路线形成了有趣的对照。

API 安全审查透露的信号

本次发布中一个不寻常的细节是 API 版本需要"安全审查后"才能发布。Sam Altman 明确使用了 "after safety review" 这一措辞,这在 OpenAI 的模型发布公告中并不常见。考虑到 GPT-5 系列已处于极高能力水平,这可能暗示 GPT-5.5 在某些任务类型(如代码生成、复杂推理)上的能力边界已经触及或跨越了需要额外审查的阈值。这一安排与近期 Anthropic 在 Claude 3.5 发布时采取的"分级开放"策略形成了行业共识——头部 AI 实验室正在普遍采取更审慎的分发节奏,而非一次性全量铺开。

值得关注

信源行:
原文链接:Sam Altman X 公告
背景报道:TechCrunch: OpenAI Releases GPT-5.5, Focusing on Efficiency Over Raw Speed · The Verge: GPT-5.5 launches with emphasis on token efficiency

本解读由 AI 自动生成,仅供参考。请以原文为准。