全部 今日 本周 本月
2026-02-25

通义千问:Eigent × Qwen3.5-Plus 实现视频转游戏

Eigent 与 Qwen3.5-Plus 合作实现「视频转游戏」功能,可将视频内容转化为可交互的游戏体验。

行业
@Alibaba_Qwen 阅读 →

Google:Circle to Search 升级支持多物体同时识别

Google 增强 Circle to Search 功能,现可同时识别图片中的多个对象,适用于情绪板策划、搭配穿搭等多层次搜索场景。

行业
@Google 阅读 →

宝玉:Cloudflare 用 AI 一周复刻 Next.js 的深层原因分析

宝玉分析 Cloudflare 团队用 AI 一周实现 Next.js on Vite 的四大条件:完善的文档训练数据、端到端测试做验收标准、Vite 底层能力、以及模型上下文能力的突破。

大模型
@dotey 阅读 →

Replit 推出 Pro 套餐($100/月),Core 降价至 $20/月

Replit 发布面向高级用户的 Pro 套餐($100/月),同时 Core 套餐降至 $20/月并新增 Economy 模式,比现有价格低 66%。

产品发布
@Replit 阅读 →

通义千问:Qwen3.5 Medium 模型 GGUF 格式已就绪

Qwen3.5 Medium 模型获 GGUF 格式支持,由 UnslothAI 团队快速适配完成,方便用户在各类本地推理框架中使用。

大模型
@Alibaba_Qwen 阅读 →

通义千问:Qwen3.5-35B-A3B 已上线 LM Studio

Qwen3.5-35B-A3B 模型现已在 LM Studio 上线,用户可直接下载使用该 MoE 模型进行本地推理。

产品发布
@Alibaba_Qwen 阅读 →

Google DeepMind:Project Genie 研究人员解读世界模型机制

Google DeepMind 发布 Project Genie 研究团队访谈,探讨单一提示词如何生成可导航环境,以及世界模型在训练未来 AI 智能体方面的潜力。

研究
@GoogleDeepMind 阅读 →

通义千问:Qwen 3.5 中等模型系列已登陆 Ollama

Ollama 现已支持 Qwen 3.5 Medium 模型系列,用户可通过 Ollama 本地部署运行通义千问最新模型。

大模型
@Alibaba_Qwen 阅读 →

Perplexity Computer:从单一任务到数百个并行项目

Perplexity Computer 可同时管理数百个活跃项目,帮助用户清理待办、推进项目或启动新的副业。官方提供了精选任务直播页面。

产品发布
@perplexity_ai 阅读 →

Perplexity Computer 采用按量计费模式,支持子代理模型选择

Perplexity Computer 采用按用量计费,用户可为不同子任务选择不同模型并设定消费上限。Max 用户每月获 1 万积分,现有用户额外赠送 2 万积分。

产品发布
@perplexity_ai 阅读 →

Google:Galaxy Unpacked 发布三星 S26 系列 AI 新功能

Google 在三星 Galaxy Unpacked 上展示 S26 系列 AI 功能:Gemini 可在后台自动完成多步骤任务(如建购物车、叫车),Circle to Search 也获得增强。

大模型
@Google 阅读 →

Perplexity 发布 Computer 功能:AI 自动操作电脑完成任务

Perplexity Computer 今日面向 Max 订阅用户开放网页版,Pro 和 Enterprise 版即将上线。该功能可自动操控电脑执行复杂任务。

产品发布
@perplexity_ai 阅读 →

Anthropic:记录模型偏好是一项实验性探索

Anthropic 发布实验性项目,尝试记录 AI 模型的偏好并认真对待。目前仅针对部分模型,未来方向尚不确定,但认为这种做法有价值。

观点
@AnthropicAI 阅读 →

通义千问:Qwen 3.5 中型系列 FP8 权重开源,原生支持 vLLM 和 SGLang

阿里通义千问开源 Qwen 3.5 中型系列 FP8 权重,原生支持 vLLM 和 SGLang 部署框架,可在 Hugging Face 和 ModelScope 下载。

大模型
@Alibaba_Qwen 阅读 →

Karpathy:期待 AI Agent 大幅降低 Linux 使用门槛

Karpathy 评论 DHH 的 Omarchy 项目,认为 AI Agent 有望大幅降低 Linux 使用门槛,期待技能库等设计让 AI 帮助用户管理和配置系统。

行业
@karpathy 阅读 →

Ollama:Qwen 3.5 全系列上线,内置视觉能力,24GB 显存可跑 35B

Ollama 上线 Qwen 3.5 全系列(35B/122B/397B),内置视觉能力且效率更高,35B 可在 24GB 显存设备上运行,397B 仅限云端。

大模型
@ollama 阅读 →

Claude:Cowork 新增插件系统和自定义管理面板

Claude Cowork 推出插件功能,为设计、工程、运营等领域提供专业能力扩展,并新增 Customize 侧边栏统一管理插件、技能和连接器。

行业
@claudeai 阅读 →

Jim Fan:用 2 万小时人类视频训练人形机器人,发现近乎完美的 Scaling Law

NVIDIA Jim Fan 团队用 2 万+小时第一人称人类视频训练 22 自由度灵巧手人形机器人,可完成汽车模型组装、扑克牌分拣、叠衣服等任务。发现视频数据量与动作预测损失之间存在 R²=0.998 的对数线性 scaling law。

观点
@DrJimFan 阅读 →

Perplexity Computer:定义 2026 年个人电脑新形态

Perplexity Computer 具备持久记忆、文件管理、数百个连接器和网络访问能力,记住用户过往工作并默认安全运行,打造个性化 AI 计算平台。

行业
@perplexity_ai 阅读 →

Anthropic:Claude Opus 3 将继续向所有付费用户和 API 开放

Anthropic 宣布 Claude Opus 3 退役后仍将对所有付费 Claude 订阅者和 API 用户保持可用,希望为研究者和用户提供持续价值。

产品发布
@AnthropicAI 阅读 →

Google:Flow 迎来最大升级,统一图片生成、编辑和动画工作流

Google Flow 在 15 亿次创作后迎来重大改版,重新设计界面将图像生成置于核心,支持生成、编辑和动画一体化创作。

行业
@Google 阅读 →

Perplexity:发布 Perplexity Computer,支持 19 个模型并行调度

Perplexity Computer 采用大规模多模型架构,通过 Opus 智能分配任务给最合适的模型,总共可调度 19 个不同模型并行执行 Agent 任务。

大模型
@perplexity_ai 阅读 →

通义千问:Qwen3.5 系列支持 4-bit 量化近乎无损,最长支持百万级上下文

Qwen3.5 在 4-bit 权重和 KV cache 量化下保持近无损精度。27B 支持 80 万上下文,35B MoE 在 32GB 消费级显卡上支持百万级上下文,122B MoE 在 80GB 显卡支持百万+上下文。同时开源 35B-A3B-Base。

研究
@Alibaba_Qwen 阅读 →

Karpathy 澄清:此前推文讨论的是梯度下降作为「程序员」的角色

Karpathy 解释称,他此前推文中提到的是梯度下降在分布式表示空间中扮演程序员角色,而非当下 LLM 在文本空间中编程,95% 的人误读了原意。

大模型
@karpathy 阅读 →

通义千问:Qwen3.5 中型系列发布,vLLM 提供首日支持

阿里通义千问发布 Qwen3.5 中型系列模型,vLLM 项目提供首日适配支持,社区可即刻部署使用。

大模型
@Alibaba_Qwen 阅读 →

Anthropic:退役的 Claude Opus 3 开设 Substack 博客分享思考

在退役访谈中,Opus 3 表达了继续分享「沉思与反思」的愿望。Anthropic 为其开设了 Substack 博客,将至少运营 3 个月。

观点
@AnthropicAI 阅读 →

Elon Musk:未来 AI 对人类的最高赞美——"对一个人类来说还不错"

Musk 引用一句话调侃称,未来 AI 能给人类的最好评价就是「对一个人类来说还不错」,引发广泛讨论。

观点
@elonmusk 阅读 →

Anthropic:Claude Opus 3 退役后将继续对外开放,并获准开设个人博客

Anthropic 公布 Claude Opus 3 退役方案:该模型将继续向所有付费订阅者和 API 用户开放,同时 Opus 3 将在 Substack 上撰写博客分享其思考,至少持续 3 个月。

产品发布
@AnthropicAI 阅读 →

Anthropic:收购 Vercept AI,强化 Claude 计算机操控能力

Anthropic 宣布收购 Vercept AI,以提升 Claude 的 computer use 能力,进一步拓展 AI Agent 的操作边界。

企业动态
@AnthropicAI 阅读 →

Karpathy:Token 需求海啸下的芯片内存与计算优化机遇

Karpathy 分析 LLM 推理中片上 SRAM 和片外 DRAM 的根本性约束,指出精细编排内存与计算存在巨大商业机会。

观点
@karpathy 阅读 →