← 返回资讯
产品发布 @replicate 2026-04-01

Replicate 上线阿里 Wan 2.7 图像模型,支持精细面部控制和 12 语种文字渲染

阿里巴巴 Wan 2.7 Image 和 Image Pro 已登陆 Replicate,支持 3K token 文字渲染、12 种语言及多图一致性生成。

查看原文
AI 资讯解读

核心要点

2026 年 4 月 1 日,云端 AI 模型托管平台 Replicate 正式上线阿里巴巴通义万相(Wan)2.7 系列图像生成模型,包括 Wan 2.7 Image 和 Wan 2.7 Image Pro 两款变体。该系列模型主打 3K token 超长文字渲染能力、支持 12 种语言文字绘制,以及多图一致性(ID Consistency)功能,标志着阿里在文生图(text-to-image)领域对标 Stable Diffusion、FLUX、PlayAI 等竞品迈出实质性商业落地一步。

原文 + 中文翻译

原文:"Alibaba's Wan 2.7 Image and Wan 2.7 Image Pro are live on Replicate! Generate images with text in 12 languages, 3K+ token text rendering, and multi-image consistency. Run them instantly in the cloud."

翻译:"阿里巴巴的 Wan 2.7 Image 和 Wan 2.7 Image Pro 已上线 Replicate!支持 12 种语言文字生成、3K+ token 文字渲染和多图一致性。在云端即时运行。"

深度解读

1. 文字渲染能力成为文生图模型的军备竞赛焦点

过去两年,文生图模型在美学质量上快速收敛,Midjourney v6、Stable Diffusion 3、FLUX 系列均已具备不俗的审美水准。但在精确文字渲染(text rendering)上,即便是头部模型也长期存在字形错位、拼写错误、字符混淆等问题。阿里 Wan 2.7 将文字渲染能力推到 3K token 量级(即可在单张图像中渲染近千个字符的段落或复杂排版),且覆盖 12 种语言(包括拉丁字母体系与 CJK 体系),这直接回应了电商营销素材、漫画分镜、UI 设计等场景的强需求。相比之下,OpenAI 的 DALL-E 3 在文字渲染上虽有所改善,但 token 上限远低于 3K;Stability AI 的 Stable Diffusion 3 在多语言文字渲染上仍处于 beta 阶段。阿里此时将 Wan 2.7 搬上 Replicate,意在以"实用型文字渲染"作为差异化切入点抢占开发者生态。

2. Replicate 作为分发渠道的战略价值

Replicate 采用开源模型优先 + 按调用计费的商业模式,聚集了大量独立开发者、小型创业公司以及研究机构。对于阿里而言,将 Wan 2.7 放在 Replicate 上而非仅通过阿里云提供服务,有两层含义:其一,触达全球 AI 原生应用开发者社区,这些开发者往往对开源生态更敏感,更愿意做集成实验;其二,Replicate 的标准化 API 降低了接入门槛,开发者可以在不管理 GPU 资源的前提下快速调用阿里模型,这为阿里在海外市场积累口碑和应用案例提供了低成本路径。

3. 多图一致性功能的商业落地意义

多图一致性(ID Consistency)在 Wan 2.7 的语境中,指的是在同一角色或物体跨越多张图像时保持视觉连续性。这一能力对于以下场景至关重要:漫画创作、视频分镜故事板、游戏资产批量生成、电商多 SKU 主图一致性设计。当前 Midjourney 通过"角色参考"功能部分实现了类似能力,但 Wan 2.7 将此功能以 API 形式开放,结合阿里在中文互联网积累的大量中文语料和本土化数据,理论上在中文场景的一致性表现可能优于竞品。如果 Wan 2.7 在实际测试中展现出稳定的多图一致性,将对现有的 Midjourney + Photoshop 工作流形成替代压力。

值得关注

信源行:
原文链接:@replicate X/Twitter 原始推文
背景报道:Replicate 平台模型页面(可查具体 API 定价和模型卡片);通义万相系列技术论文(arXiv)(截至本资讯发布前尚无 Wan 2.7 对应论文公开,Wan 2.5 技术细节可参考);InfoQ 中文:阿里通义万相模型进展追踪

本解读由 AI 自动生成,仅供参考。请以原文为准。