人工智能行业最新动态
<img src="https://storage.googleapis.com/gweb-uniblog-publish-prod/images/gemini-3_deep-think_keyword_hea.max-600x600.format-webp.webp">We’re releasing a major upgrade to Gemini 3 Deep Think, our specialized reasoning mode.
Introducing GPT-5.3-Codex-Spark—our first real-time coding model. 15x faster generation, 128k context, now in research preview for ChatGPT Pro users.
Latent Space 创始人 swyx 发现 @anthropic 推特账号仍属于一位每天发 Wordle 成绩的普通用户,即使 Anthropic 已有 300 亿美元融资也未买下该账号,引发社区热议。
Google DeepMind 宣布升级后的 Deep Think 模式正在 Gemini App 向 Google AI Ultra 订阅者推出,同时面向科研人员和开发者开放 Vertex AI 早期访问计划。
Cursor 宣布 Long-running Agents 功能向 Ultra、Teams 和 Enterprise 计划用户开放,新的运行框架可让 Agent 完成更大规模的任务。
Google 分享 Gemini 3 Deep Think 早期测试成果,研究人员用其发现论文隐藏缺陷和优化半导体生长等实际应用,展示解决不可解问题的能力。
Karpathy 分享其编程心得,表示代码已精简 200 行,意识到自己仍在把事情搞得过于复杂,体现其追求代码极简主义的理念。
OpenAI 宣布 Codex 应用、CLI 和 IDE 扩展中的新功能正式向 ChatGPT Pro 用户推出。
Google DeepMind 最新 Deep Think 模型在 ARC-AGI-2 推理基准上达到 SOTA,在 Humanity Last Exam 上刷新纪录,Codeforces Elo 达 3455,展现强大的数学、科学和编程能力。
Sam Altman 预告 Codex Pro 计划用户将获得一项新功能上线,称其令人喜悦,暗示 OpenAI 即将发布重要产品更新。
Musk 透露 xAI 有约 30 名工程师正在开发基于纯 AI 的推荐系统。
Google 宣布 Gemini 3 Deep Think 更新,ARC-AGI-2 达 84.6%,在 Humanity's Last Exam 上树立新标准,展示该推理模式在科学研究和工程领域的实际应用。
Musk 公开批评 Anthropic 的 AI 存在针对特定群体的偏见,称其「反人类且邪恶」。同时透露 Grok 4.2 将「好很多」。
Anthropic 披露其年化营收已达 140 亿美元,过去三年每年增长超过 10 倍,增长动力来自其作为企业和开发者首选智能平台的定位。
Karpathy 宣布作为天使投资人参与 Simile AI。该公司探索 LLM 的「模拟引擎」本质——预训练模型天然具备模拟互联网上多元人群的能力,为何只模拟单一人格?
Karpathy 进一步简化 micrograd 项目,通过让每个算子仅返回局部梯度、由 backward() 负责链式乘法,代码从 243 行精简到 200 行(减少 18%),代码更优雅地排列为 3 列。
Google DeepMind 升级 Gemini 3 Deep Think 推理模式,ARC-AGI-2 达 84.6%(SOTA),Humanity's Last Exam 创新标准,Codeforces Elo 达 3455。展示 Duke 大学用其设计半导体新材料。
Sam Altman 宣布 GPT-5.3-Codex-Spark 以研究预览形式面向 Pro 用户发布,推理速度超过每秒 1000 tokens,发布初期存在一些限制,后续将快速迭代改进。
OpenAI 推出 GPT-5.3-Codex-Spark 研究预览版,推理速度超 1000 tokens/秒,面向 Pro 用户开放,支持 ChatGPT Pro 的 Codex 应用、CLI 和 IDE 插件。
Anthropic 宣布完成 300 亿美元融资,投后估值 3800 亿美元。年化营收已达 140 亿美元,过去三年每年增长超 10 倍,已成为企业和开发者首选的智能平台。
宝玉更新了 baoyu-danger-x-to-markdown Skill,现在可以将 X 推文(含 Thread、文章)下载为 Markdown,并支持图片和视频本地下载。提醒使用小号操作。
Ollama 宣布 GLM-5 云端模型已扩容并提升速度,完整尺寸模型可直接使用,支持 Claude Code 和 OpenClaw 等工具调用。
Anthropic 宣布向 Public First Action 捐赠 2000 万美元,这是一个跨党派组织,旨在动员民众和政客关注 AI 政策制定。Anthropic 强调 AI 被采用的速度前所未有,政策窗口正在关闭。
Karpathy 将此前 Gist 上的 AI 学习资源整理为独立网页,方便一页浏览。
Cursor 宣布提升所有个人计划的 Auto 和 Composer 1.5 使用额度,Composer 1.5 用量为 Composer 1 的 3 倍,限时(至 2 月 16 日)提升至 6 倍。
Cursor Arena Mode 首周获 4 万票。主要发现:Gemini 3 Flash 击败 Pro、Grok Code Fast 击败 Gemini 3、Claude Haiku 4.5 击败 GPT 5.2、SWE 1.5 击败 Claude Haiku。结论:用户更看重速度。
Vercel Sandbox 新增出口策略配置功能,可控制 AI Agent 的网络流量,防止数据外泄,提升安全性。
Ming-flash-omni-2.0 模型已在 Hugging Face 上线,支持多模态能力。
LMSys 确认 OpenRouter 上神秘的 Pony Alpha 模型就是智谱 GLM-5(744B 参数/40B 活跃),SGLang 首日提供推理支持。模型集成 DeepSeek Sparse Attention 和 slime 异步 RL 框架。
新论文 LatentLens 提出方法揭示大语言模型中高度可解释的视觉 token,为理解多模态模型内部机制提供新视角。