来自 Twitter · Hacker News · GitHub 的 AI 行业动态
马斯克表示特斯拉的芯片设计评审过程充满乐趣,暗示其自研芯片项目正在积极推进中。
马斯克透露特斯拉芯片研发工厂将在一栋楼内整合逻辑、存储、封装和掩模制造全部环节,实现极速研发迭代周期。
Karpathy 点评 Farzapedia 项目,认为用显式可导航的知识库做 AI 个性化,比隐式记忆更透明、可控、可迁移,用户能清楚看到 AI 知道什么。
Karpathy 认为,AI 赋能的公民可以大幅提升政府的可见性和问责性。历史上是政府让社会变得可读,而 AI 让社会反过来能够深度审视政府运作。
Karpathy 提出 idea file 概念:在 LLM Agent 时代,分享想法比分享具体代码更有意义,因为对方的 Agent 可以根据想法定制并构建出适合自己需求的应用。
据 The Information 报道,DeepSeek 推迟 V4 发布,花数月与华为、寒武纪合作重写底层代码,确保模型能在昇腾 950PR 芯片上运行。该芯片单卡算力为 H20 的 2.87 倍,是中国唯一支持 FP4 低精度推理的 AI 芯片。
Qwen3.6-Plus 成为 OpenRouter 上排名第一的模型,也是首个单日处理超过 1 万亿 token 的模型,体现了开发者社区对该模型的高度认可。
Musk 透露 Tesla 芯片设计评审非常有趣,暗示 Tesla 自研芯片进展顺利。
Musk 表示心目中的美好时光就是与优秀工程师一起工作,创造新东西。
Karpathy 分享思考:看好被 AI 赋能的个人,个人+AI 的组合将释放前所未有的生产力。
Karpathy 的 LLM 知识库推文意外走红,他补充了更详细的工作流:用 LLM 将源文档增量整理为结构化 Markdown。
Musk 表示有信心 Neuralink 将能够恢复听力功能,脑机接口技术持续推进。
HuggingFace 分享 Gemma 4 26B 模型的本地运行方式:通过 llama-server + GGUF 量化格式(Q4_K_M)直接加载,openclaw 已完成 onboarding。
Qwen3.6-Plus 在 OpenRouter 排名第一,成为 OpenRouter 上首个达到该位置的模型。
Ollama 宣布订阅用量将于明天太平洋时间上午 11 点刷新,继续支持 Gemma 4 全系列模型。
Marc Andreessen 解释为什么管理层可能在 AI 时代消失——当 AI 可以协调和分配任务时,中间管理层价值大幅下降。
Marc Andreessen 表示 AI 和 Crypto 的大统一即将发生,两个技术浪潮将走向融合。
xAI 发布 Grok Imagine Quality 模式三大升级:视觉真实感飞跃、文字渲染准确性提升、世界知识深度增强。
a16z 数据:目前只有 3% 的家庭在为 AI 付费,但一旦开始使用就很难停下。AI 消费市场仍处于极早期。
Karpathy 回复 Nick Cammarata 表示:真正的受众在未来。暗示当下的内容创作应面向长期价值。
文档平台 Mintlify 给 AI 文档助手造了一套假文件系统 ChromaFS,让 AI 在虚拟文件系统中浏览文档。与 Supabase SSH 文档服务器思路类似。
xAI 发布 Grok Imagine 质量模式,视觉真实感实现飞跃。同时改进了文字渲染准确性和世界知识深度。
Google 发布 Lyria 3 音乐生成模型最佳提示词技巧,该模型可在 Gemini App 中通过文本、图片或视频生成定制音乐。
a16z 发布数据图表显示,随着企业采用 AI,IT 服务行业将首当其冲受到影响,成为 AI 替代的第一批行业。
知名投资人 Chamath 认为如果 AGI 实现,当前 3-5% 的股权收益率将不再是安全的投资策略,市场定价逻辑将被颠覆。
NVIDIA CEO 黄仁勋表示其 Token 生成成本全球最低,源于架构卓越和极致协同设计,是衡量 AI 经济效益的关键指标。
Google 发布三月 AI 进展回顾视频,涵盖 Gemini App、Google Maps 等产品的最新 AI 功能更新。
a16z 联合创始人 Andreessen 表示 AI 时代软件不再是稀缺资源,过去只有少数人能编写优质软件的时代已结束,未来挥挥手就能获得所需软件。
Musk 强调视觉智能对通用人工智能(AGI)至关重要,是 AGI 不可或缺的核心能力。
Anthropic Fellows 发布新研究,将软件开发中的 diff 原理应用于开源 AI 模型对比,可自动识别不同模型间的独特行为特征。