← 返回资讯
产品发布 @ollama 2026-04-28

Ollama:Nemotron 3 Nano Omni 现已支持在 Ollama 本地运行

Ollama 宣布最新 0.22 版本支持本地运行 NVIDIA Nemotron 3 Nano Omni 多模态模型。

查看原文
AI 资讯解读

核心要点

Ollama 发布 0.22 版本,新增对 NVIDIA Nemotron 3 Nano Omni 多模态模型的支持,用户可直接在本地设备上运行该模型处理文本与图像任务,无需依赖云端服务。

深度解读

Nemotron 3 Nano Omni 是 NVIDIA 近期推出的轻量级多模态模型此次整合进 Ollama 生态,标志着本地 AI 部署门槛的进一步降低。相比此前需要在终端复杂配置 CUDA 环境,用户只需一条命令即可完成模型的下载与运行,极大提升了易用性。

从行业角度看,Ollama 与 NVIDIA 的合作反映了开源本地模型生态与商业 GPU 巨头之间的良性互动——NVIDIA 提供模型能力,Ollama 负责降低部署门槛。这种分工模式正在重塑 AI 落地路径:中小企业和个人开发者无需昂贵的云算力支出,即可在消费级硬件上实验多模态应用。

值得注意的是,Nemotron 3 Nano Omni 定位于"Nano"级别,意味着参数量和显存需求相对轻量,但多模态能力的加入使其在视觉问答、图文理解等场景具备实用价值。这一进展也与近期 Llama 4、Gemma 等模型的本地化趋势相互呼应,预示着 2026 年本地 AI 基础设施的竞争将更加激烈。

值得关注

本解读由 AI 自动生成,仅供参考。请以原文为准。