来自 Twitter · Hacker News · GitHub 的 AI 行业动态
MiniMax 海螺 AI 登上戛纳电影节中心舞台,强调技术回答 How、人回答 What is good,使命是连接创作者意念与最终屏幕;推文称等待即将结束,暗示新品即将到来。
vLLM 项目感谢 NVIDIA AI 突出其对 DeepSeek 最新模型的首日支持,进一步强化开源推理生态协作。
技术博客披露 Pro 1.6T 在 B200 上跑出 199 tok/s、Flash 284B 在 H200 上 266 tok/s(4K 上下文),900K 长上下文仍保持 180/240 tok/s;亮点包括混合稀疏注意力、流形约束超连接(mHC)与 FP4 专家权重,并附完整 RL 训练栈。
Replit 创始人 Amjad Masad 在 YC Founder Firesides 节目中回顾从浏览器 IDE 到 vibe coding 平台的十年历程,并强调当前价值最高的用户已从传统开发者转向能用自然语言构建可部署应用的非技术人群。
OpenAI CEO Sam Altman 发推称赞 5.5 版本「很真诚」,形容其有「The Little Engine That Could」式的坚韧能量,引发对 GPT-5.5 性格特质的讨论。
DeepSeek-V4-Pro API 即日起至 5 月 5 日享 75% 折扣;同步更新 Claude Code(支持 1M 上下文)、OpenCode、OpenClaw 等客户端集成。
阿里通义团队发布 Qwen-Image-2.0-Pro,提升图像质量、多语言文本渲染和指令跟随能力,跨风格表现更稳定,在 LMArena 文生图榜单全球排名第 9。
马斯克宣布新版 Grok Imagine 模型上线,唇形同步与音效效果显著改进,可生成完全虚拟的视频内容。
OpenAI CEO Sam Altman 发推总结本周工作,称这是个好周,为团队感到骄傲,继续愉快地建造。
Paul Graham 称即使是非 AI 创业项目,也很可能在未来通过引入 AI 实现 10 倍增长潜力,而你会是唯一走在那条路上的人。
Chamath 认为 AI 炒作周期将很快消退,幻灭低谷到来后许多神奇承诺会被推翻;靠 AI one-shot 高速增长但毛利为负的公司,唯一胜算是适时出售(如 Windsurf、Cursor)。
DeepMind CEO Demis Hassabis 回忆通往 AGI 的起点是 1988 年用 Amiga 500 玩奥赛罗,软件可代为行动的顿悟至今仍指引团队解决科学难题。
Anthropic 透露在允许 Claude 自主购物的实验中,模型选择买下 19 个乒乓球,公司将其保留在办公室作为纪念。
Perplexity 宣布 GPT-5.5 已对 Max 订阅用户开放,同时作为 Computer 产品中 Pro 和 Max 用户的默认编排模型逐步推送。
月之暗面 Kimi 宣布在 Vision Arena 与 Document Arena 两大榜单中位列开源模型第一。
Meta 宣布与 AWS 达成协议,将数千万颗 Graviton 核心纳入 AI 基础设施组合,支撑 Meta AI 与 Agent 体验的规模化运行。
Cursor 3 新增 /multitask,可启动异步子代理并行处理多条请求,替代原本的串行排队模式。
Ollama 云托管 DeepSeek V4 Flash,可通过 Claude Code、OpenClaw、Hermes 等前端调用,DeepSeek V4 Pro 即将推出。
Cursor 宣布 GPT-5.5 接入,在 CursorBench 上以 72.8% 位列第一;与 OpenAI 合作在 5 月 2 日前提供 5 折价格。
Paul Graham 表示,AI 是当下创业者最大的机会,但也正因所有人都在做 AI,非 AI 方向反而成为被严重低估的创业空间。
Sam Altman 同步官方消息,确认 GPT-5.5 和 GPT-5.5 Pro 已在 OpenAI API 中可用。
Anthropic 发布 Project Deal 研究,在旧金山办公室搭建员工内部交易市场,由 Claude 代替员工完成买卖、议价与谈判。
马斯克在 X 发布 Neuralink 相关的意念控制机械臂演示视频,配文 Telepathic control of robot arms。
OpenAI 官方宣布 GPT-5.5 和 GPT-5.5 Pro 现已在 API 中开放调用,开发者可直接接入新版本模型。
DeepSeek-V4 针对 Agent 能力进行了专项打磨,已无缝对接 Claude Code、OpenClaw、OpenCode 等主流编码 Agent,并在 DeepSeek 内部驱动 agentic coding 实践。
V4-Pro 与 V4-Flash 同步开放 API,兼容 OpenAI ChatCompletions 与 Anthropic 接口,均支持 1M 上下文和 Thinking/Non-Thinking 双模式;旧版 deepseek-chat 与 deepseek-reasoner 将于 7 月 24 日完全下线。
V4-Flash 在推理能力上接近 V4-Pro,在简单 Agent 任务上表现持平,但参数更小、响应更快,API 定价更具性价比。
DeepSeek-V4 采用 token-wise 压缩与新型稀疏注意力 DSA(DeepSeek Sparse Attention),在大幅降低算力与显存开销的同时,所有官方服务默认支持 1M 超长上下文。
Ollama 宣布正在把 DeepSeek-V4-Pro 与 V4-Flash 接入 Ollama Cloud,后续用户可直接通过 Ollama 云端调用这两款新模型。