← 返回资讯
研究 @karpathy 2026-04-02

Karpathy:用 LLM 构建个人知识库,从操控代码转向操控知识

Karpathy 分享最近的工作方式转变:用 LLM 构建个人知识库,将论文、文章、代码库索引到 raw/ 目录,再由 LLM 增量整理为结构化 Markdown。大部分 token 消耗从代码操作转向了知识管理。

查看原文
AI 资讯解读

核心要点

2026 年 4 月 2 日,OpenAI 联合创始人、知名 AI 教育者 Andrej Karpathy 在 X 平台分享了其工作流的重大转变:他开始系统性地使用 LLM 构建个人知识库。具体而言,他将论文、文章、代码库等原始资料存入 raw/ 目录,再由 LLM 增量整理为结构化 Markdown 输出。这一转变意味着其日常使用中,大部分 LLM token 消耗已从"操控代码"转向"操控知识",标志着 AI 辅助认知工作的一个新阶段。

原文 + 中文翻译

原文:(Karpathy 推文核心内容)
"I shifted most of my LLM usage from operating on code to operating on knowledge. I index papers, articles, codebases into a raw/ directory, then an LLM incrementally organizes them into structured Markdown over time. The majority of my tokens now go to knowledge management rather than code manipulation." 翻译:"我将 LLM 的主要用途从操控代码转向操控知识。我将论文、文章、代码库索引到 raw/ 目录,然后让 LLM 逐步将它们整理为结构化的 Markdown。现在,我消耗的大部分 token 都用于知识管理,而非代码操作。"

深度解读

一、从"代码工具"到"认知伙伴"的范式跃迁 Karpathy 的工作流转变具有重要的象征意义。作为深度学习领域的标志性人物,他长期活跃于代码编写与模型训练前线,其工作流中 token 消耗从代码操作转向知识管理,折射出一个深层趋势:当 LLM 的上下文窗口足够大、推理能力足够强时,人们开始将它从"写代码的助手"重新定位为"思考的伙伴"。知识管理——包括信息的摄入、结构化、检索与迭代——正在成为 LLM 的核心用例之一,这与传统观念中 LLM 主要用于代码生成的定位形成鲜明对比。 二、"增量整理"模式的技术含义 Karpathy 提到的"incrementally organizes"(增量整理)是一个关键细节。传统的知识管理工具(如 Notion、Obsidian)依赖用户手动维护结构,而增量式 LLM 整理意味着系统能够在每次交互中理解新旧信息的关系,动态更新知识图谱或文档结构。这一模式暗示了"Contextual Memory as a Service"的雏形——LLM 不仅处理当前输入,还维护着一个关于用户知识体系的长期上下文。raw/ 目录作为"冷存储",Markdown 输出作为"热输出",形成了一个人机协作的知识代谢循环。 三、对 AI Native 工作流的预示 这一转变对 AI 应用的未来走向具有指示意义。当 token 消耗的分布从"代码生成"迁移到"知识管理",它意味着 LLM 的价值锚点正在从"生产力工具"(帮助完成具体任务)向"认知基础设施"(辅助思考、记忆与知识构建)演进。这与近期业界热议的 Agent Memory、Long-term Memory 议题高度呼应。Karpathy 的个人实践或许预示了一种新型 AI Native 工作流的诞生:不是让人类适应 AI 的交互范式,而是让 AI 深度嵌入人类的认知流程。

值得关注

信源行:
原文链接:https://x.com/karpathy/status/2039805659525644595
背景报道:
karpathy.ai — Karpathy 官方博客,历史上曾分享大量 AI 教育内容与技术思考
Simon Willison's Blog — 长期追踪 LLM 实用化案例,曾多次解读 Karpathy 的 AI 使用方法论

本解读由 AI 自动生成,仅供参考。请以原文为准。