← 返回资讯
研究 @togethercompute 2026-02-19

Together AI 研究:扩散语言模型推理延迟降低最高 14.5 倍

Together AI 发布 CDLM 方法,通过后训练方案解决扩散语言模型的 KV 缓存不兼容和高步数问题,在 Dream-7B 上实现 4.1-7.7 倍步数减少和最高 14.5 倍延迟降低,数学和编码准确率保持竞争力。

查看原文
AI 资讯解读
本解读由 AI 自动生成,仅供参考。请以原文为准。