← 返回资讯
产品发布 @deepseek_ai 2026-04-24

DeepSeek:V4 Preview 发布并开源,1M 超长上下文进入低成本时代

DeepSeek-V4-Pro(1.6T 总参/49B 激活)对标顶尖闭源模型,V4-Flash(284B/13B 激活)为高性价比版本,支持专家/即时模式,API 今日同步上线。

查看原文
AI 资讯解读

核心要点

2026年4月24日,DeepSeek正式发布V4 Preview系列模型并宣布开源。旗舰版V4-Pro采用1.6T总参/49B激活参数的MoE架构,对标GPT-4o、Claude 3.5等顶尖闭源模型;轻量版V4-Flash仅284B总参/13B激活即可达到高性能,显著降低部署门槛。两款模型均支持1M超长上下文窗口与专家/即时双模式,API同步上线标志着超长上下文正式进入低成本可商用的新阶段。

原文 + 中文翻译

原文:
DeepSeek-V4 Preview is now live — Pro (1.6T/49B) and Flash (284B/13B) are both open-sourced. 1M context, expert mode & instant mode. API available today.
翻译:
DeepSeek-V4 Preview现已发布——Pro版(1.6T/49B)与Flash版(284B/13B)均已开源。支持1M上下文、专家模式与即时模式。API今日同步上线。

深度解读

一、MoE架构的成本革命持续深化 DeepSeek V4系列延续并强化了MoE(Mixture of Experts)架构的技术路线。V4-Pro以1.6T总参但仅49B激活参数的比例,意味着实际推理成本仅与49B dense模型相当,却能调用近33倍的知识容量。这一比例较V3版本进一步优化,印证了DeepSeek在稀疏激活领域的技术积累。V4-Flash的284B/13B配置则将高性能推理的硬件门槛从H100/A100级别大幅下探至消费级GPU可承载的范围,这对于独立开发者与中小企业的意义尤为重大——他们无需调用API即可在本地部署具备顶级能力的模型。 二、1M上下文的价格锚定重塑行业格局 超长上下文(1M tokens≈75万汉字)此前是Claude 3.5/Gemini Ultra等闭源模型的差异化卖点,DeepSeek V4将这一能力开源化,并强调"低成本时代",暗示其API定价策略将对标GPT-4o mini而非GPT-4o级别。若此策略落地,将对国内阿里通义、百度文心、字节豆包等正在打磨长上下文能力的厂商形成直接压力——开源社区将获得同等能力且成本更低的替代方案。API同步上线的时间节点也表明DeepSeek意在抢抓窗口期,在竞品长上下文功能尚未成熟前建立开发者生态。 三、开源策略的生态意图与商业博弈 DeepSeek选择Preview阶段即开源,与Meta Llama系列的"先闭源后开源"路径截然不同。这一策略的底层逻辑在于:通过开源快速扩大用户基数与场景覆盖,积累真实-world feedback反哺模型迭代,同时在企业市场建立"基础设施层"的品牌心智。商业化路径可能依赖API调用量、企业定制化服务、以及与云厂商的深度合作分成。V4-Flash的极致性价比定位,某种程度上是在封堵Mistral、Cohere等中等体量模型的市场空间——用开源+低价将它们逼入更狭窄的差异化区间。

值得关注

信源行:
原文链接:@deepseek_ai (X/Twitter)
背景报道:HuggingFace DeepSeek官方页 | DeepSeek GitHub开源仓库
相关参考:DeepSeek V3发布报道(The Verge, 2025年12月) | MoE架构对比分析(Anthropic Research Blog)

本解读由 AI 自动生成,仅供参考。请以原文为准。