<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM on 鬼哥的空间</title><link>https://luoli523.github.io/tags/llm/</link><description>Recent content in LLM on 鬼哥的空间</description><generator>Hugo -- gohugo.io</generator><language>zh-cn</language><lastBuildDate>Mon, 06 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://luoli523.github.io/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>Karpathy 的 LLM Wiki：用大模型编译知识，而不是检索知识</title><link>https://luoli523.github.io/p/karpathy-llm-wiki/</link><pubDate>Mon, 06 Apr 2026 00:00:00 +0000</pubDate><guid>https://luoli523.github.io/p/karpathy-llm-wiki/</guid><description>&lt;img src="https://luoli523.github.io/" alt="Featured image of post Karpathy 的 LLM Wiki：用大模型编译知识，而不是检索知识" /&gt;
 &lt;blockquote&gt;
 &lt;p&gt;&amp;ldquo;我最近大部分的 token 消耗，不再是在操作代码，而是在操作知识。&amp;rdquo; —— Andrej Karpathy, 2026.04.03&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;p&gt;2026 年 4 月 3 日，Karpathy 发了一条推文，描述了他最近用 LLM 构建个人知识库的工作流。第二天，他把这个想法整理成了一个 &lt;a class="link" href="https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f" target="_blank" rel="noopener"
 &gt;GitHub Gist&lt;/a&gt;，并提出了一个有趣的理念：&lt;strong&gt;在 LLM Agent 时代，分享 idea 比分享代码更有价值——你把 idea 交给自己的 Agent，它会为你定制和构建一切。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这条推文迅速引爆了技术社区。但在热度之下，Karpathy 真正提出的东西值得我们认真拆解：一种**用 LLM 编译知识（而非检索知识）**的全新范式。&lt;/p&gt;
&lt;p&gt;本文将系统性地拆解这套思维体系——从它的历史渊源到技术架构，从与 RAG 的本质区别到社区的尖锐争论，最后给出可落地的实践路径。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="一从-1945-年说起bush-的-memex-构想"&gt;一、从 1945 年说起：Bush 的 Memex 构想
&lt;/h2&gt;&lt;p&gt;要理解 Karpathy 在做什么，我们需要先回到 81 年前。&lt;/p&gt;
&lt;p&gt;1945 年 7 月，Vannevar Bush 在《The Atlantic》发表了一篇名为 &lt;em&gt;&amp;ldquo;As We May Think&amp;rdquo;&lt;/em&gt; 的文章，提出了 &lt;strong&gt;Memex&lt;/strong&gt;（memory + index 的合成词）——一台桌面大小的设备，能存储一个人所有的书籍、记录和通信，并以&amp;quot;极快的速度和灵活性&amp;quot;供人检索。&lt;/p&gt;
&lt;p&gt;Memex 最独特的设计是&lt;strong&gt;关联路径（Associative Trails）&lt;/strong&gt;：用户可以在任意文档之间创建链式连接，模拟人类联想式思维，而非传统的层级索引。用户可以给这些路径加批注、创建分支，然后分享给同事。&lt;/p&gt;
&lt;p&gt;这个构想直接影响了后来的一系列技术发明：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Douglas Engelbart&lt;/strong&gt;（1945）读到这篇文章后开始研究，最终发明了鼠标、文字处理器和超链接&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ted Nelson&lt;/strong&gt;（1965）明确引用 Memex，创造了&amp;quot;超文本&amp;quot;（Hypertext）这个概念&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Tim Berners-Lee&lt;/strong&gt;（1989）在此基础上构建了万维网&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;DARPA&lt;/strong&gt;（2014）直接以 Memex 命名了一个研究项目&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;但 Bush 的构想有一个致命缺陷：&lt;strong&gt;维护成本&lt;/strong&gt;。谁来持续更新这些关联路径？谁来在新文档加入时更新所有相关的交叉引用？谁来标注新旧信息之间的矛盾？&lt;/p&gt;
&lt;p&gt;答案在 81 年后到来：&lt;strong&gt;LLM。&lt;/strong&gt;&lt;/p&gt;

 &lt;blockquote&gt;
 &lt;p&gt;Bush 的 Memex 构想其实比万维网更接近 Karpathy 的方案——Web 是公开的、混乱的、弱链接的；Memex 是私人的、策展的、富链接的。&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;p&gt;&lt;img alt="Memex 到 LLM Wiki 的演化路径" class="gallery-image" data-flex-basis="430px" data-flex-grow="179" height="1536" loading="lazy" sizes="(max-width: 767px) calc(100vw - 30px), (max-width: 1023px) 700px, (max-width: 1279px) 950px, 1232px" src="https://luoli523.github.io/p/karpathy-llm-wiki/memex-evolution.webp" srcset="https://luoli523.github.io/p/karpathy-llm-wiki/memex-evolution_hu_81a5d52f274460d6.webp 800w, https://luoli523.github.io/p/karpathy-llm-wiki/memex-evolution_hu_743c5c39e7231ce7.webp 1600w, https://luoli523.github.io/p/karpathy-llm-wiki/memex-evolution_hu_f3d3b3374a2dc3ab.webp 2400w, https://luoli523.github.io/p/karpathy-llm-wiki/memex-evolution.webp 2752w" width="2752"&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="二核心洞察编译知识而非检索知识"&gt;二、核心洞察：编译知识，而非检索知识
&lt;/h2&gt;&lt;h3 id="rag-的根本问题"&gt;RAG 的根本问题
&lt;/h3&gt;&lt;p&gt;目前大多数人使用 LLM 处理文档的方式是 &lt;strong&gt;RAG（Retrieval-Augmented Generation）&lt;/strong&gt;：上传文件 → 切块建索引 → 查询时检索相关片段 → 生成回答。&lt;/p&gt;
&lt;p&gt;Karpathy 一针见血地指出了 RAG 的本质问题：&lt;/p&gt;

 &lt;blockquote&gt;
 &lt;p&gt;&lt;strong&gt;&amp;ldquo;LLM 每次查询都从零重新发现知识。什么都不积累。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;p&gt;这就像一个图书管理员，每次有人来问问题，他都要从头翻阅所有的书，找到相关段落，拼凑出一个答案。下次同样的人来问相关的问题，他又从头来一遍——完全不记得上次的工作。&lt;/p&gt;
&lt;p&gt;RAG 的具体局限：&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;维度&lt;/th&gt;
 &lt;th&gt;RAG 的问题&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;知识综合&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;只检索扁平文档，不在文档间创建关联和综合&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;复利效应&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;答案每次重新推导，知识不累积&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;检索噪声&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;基于嵌入的检索容易出现语义/词汇不匹配的静默失败&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;基础设施&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;需要向量数据库、嵌入模型、分块策略等一整套基建&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;&lt;strong&gt;上下文窗口&lt;/strong&gt;&lt;/td&gt;
 &lt;td&gt;即使 2M token 也只能装约 300-400 页，一份财报就可能耗尽&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id="知识编译一种新范式"&gt;知识编译：一种新范式
&lt;/h3&gt;&lt;p&gt;Karpathy 的替代方案是：&lt;strong&gt;不要只在查询时检索原始文档，而是让 LLM 增量地构建和维护一个持久的 Wiki。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;当添加新资料时，LLM 不仅仅是索引它。它会：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;阅读&lt;/strong&gt;全文并提取关键信息&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;整合&lt;/strong&gt;到现有的 wiki 知识体系中&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;更新&lt;/strong&gt;相关的实体页面&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;修正&lt;/strong&gt;已有的摘要&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;标注&lt;/strong&gt;新旧信息之间的矛盾&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;强化&lt;/strong&gt;跨文档的综合分析&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;strong&gt;知识编译一次，持续维护，而非每次查询都重新推导。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;一个形象的比喻：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;RAG&lt;/strong&gt; = 一个有超快叉车的巨型仓库——什么都能找到，但不能解释货物之间的关系&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;LLM Wiki&lt;/strong&gt; = 一个有专职图书管理员的策展图书馆——管理员不断写新的综述来描述和关联旧有的藏书&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="关键区别wiki-是一个持续复利的知识制品"&gt;关键区别：Wiki 是一个持续复利的知识制品
&lt;/h3&gt;&lt;p&gt;交叉引用真实存在，矛盾被标注，综合分析反映了所有已读内容。&lt;strong&gt;Wiki 随着每一个新来源和每一次提问而变得更丰富。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt="RAG vs LLM Wiki 的知识流向对比" class="gallery-image" data-flex-basis="430px" data-flex-grow="179" height="1536" loading="lazy" sizes="(max-width: 767px) calc(100vw - 30px), (max-width: 1023px) 700px, (max-width: 1279px) 950px, 1232px" src="https://luoli523.github.io/p/karpathy-llm-wiki/rag-vs-wiki.webp" srcset="https://luoli523.github.io/p/karpathy-llm-wiki/rag-vs-wiki_hu_d7618d0e63cbd3f.webp 800w, https://luoli523.github.io/p/karpathy-llm-wiki/rag-vs-wiki_hu_5ea6c40a5c7b9391.webp 1600w, https://luoli523.github.io/p/karpathy-llm-wiki/rag-vs-wiki_hu_e4edf2abddd9117c.webp 2400w, https://luoli523.github.io/p/karpathy-llm-wiki/rag-vs-wiki.webp 2752w" width="2752"&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="三三层架构"&gt;三、三层架构
&lt;/h2&gt;&lt;p&gt;Karpathy 在 Gist 中明确定义了三层架构：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;┌─────────────────────────────────────────┐
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ The Schema（配置层） │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ CLAUDE.md / AGENTS.md │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ 定义 wiki 结构、惯例、工作流 │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;├─────────────────────────────────────────┤
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ The Wiki（知识层） │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ LLM 生成和维护的 .md 文件 │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ 摘要 / 实体页 / 概念页 / 综述 / 索引 │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;├─────────────────────────────────────────┤
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ Raw Sources（原始资料层） │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ 不可变的策展文档 │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;│ 文章 / 论文 / 图片 / 数据集 / 代码库 │
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;└─────────────────────────────────────────┘
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h3 id="第一层raw-sources原始资料"&gt;第一层：Raw Sources（原始资料）
&lt;/h3&gt;&lt;p&gt;这是&lt;strong&gt;不可变的事实来源&lt;/strong&gt;。文章、论文、图片、数据文件——只进不改。所有的原始材料都保存在 &lt;code&gt;raw/&lt;/code&gt; 目录中。&lt;/p&gt;
&lt;p&gt;采集工具：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Obsidian Web Clipper&lt;/strong&gt; 浏览器扩展：一键将网页文章转为 markdown&lt;/li&gt;
&lt;li&gt;配合 Obsidian 快捷键将相关图片下载到本地，方便 LLM 直接引用&lt;/li&gt;
&lt;li&gt;手动放入的论文 PDF、数据集等&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="第二层the-wiki知识层"&gt;第二层：The Wiki（知识层）
&lt;/h3&gt;&lt;p&gt;这是 LLM 生成和维护的核心层——一组结构化的、互相链接的 markdown 文件。包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;摘要页&lt;/strong&gt;：每个原始资料的关键要点提炼&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;实体页&lt;/strong&gt;：人物、组织、技术的专属页面&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;概念页&lt;/strong&gt;：抽象概念的解释和关联&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;综述页&lt;/strong&gt;：跨多个来源的主题综合分析&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;索引文件&lt;/strong&gt;：全局目录和导航&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;关键原则：人类几乎不直接编辑 wiki，这是 LLM 的领地。&lt;/strong&gt; 你负责策展来源、提出问题、引导方向；LLM 负责所有的簿记工作。&lt;/p&gt;
&lt;h3 id="第三层the-schema配置层"&gt;第三层：The Schema（配置层）
&lt;/h3&gt;&lt;p&gt;一个配置文档（如 &lt;code&gt;CLAUDE.md&lt;/code&gt; 或 &lt;code&gt;AGENTS.md&lt;/code&gt;），定义：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wiki 的目录结构和命名规范&lt;/li&gt;
&lt;li&gt;页面的模板格式&lt;/li&gt;
&lt;li&gt;摄入新资料时的工作流程&lt;/li&gt;
&lt;li&gt;质检的标准和流程&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个配置层将 LLM 从通用聊天机器人转变为&lt;strong&gt;结构化的知识维护者&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="四三大核心操作"&gt;四、三大核心操作
&lt;/h2&gt;&lt;h3 id="操作一ingest摄入"&gt;操作一：Ingest（摄入）
&lt;/h3&gt;&lt;p&gt;当你往 &lt;code&gt;raw/&lt;/code&gt; 目录放入新资料时：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;LLM 阅读原始资料&lt;/li&gt;
&lt;li&gt;与你讨论关键要点&lt;/li&gt;
&lt;li&gt;写摘要页，放入 wiki&lt;/li&gt;
&lt;li&gt;更新 &lt;code&gt;index.md&lt;/code&gt;（全局目录）&lt;/li&gt;
&lt;li&gt;遍历已有的 wiki 页面，更新所有相关的实体页和概念页&lt;/li&gt;
&lt;li&gt;在 &lt;code&gt;log.md&lt;/code&gt; 中追加操作记录&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;一次摄入可能会触及 &lt;strong&gt;10-15 个 wiki 页面&lt;/strong&gt;——这正是 LLM 维护的核心价值：人类不可能每加入一份资料就手动更新十几个页面，但 LLM 可以。&lt;/p&gt;
&lt;h3 id="操作二query查询"&gt;操作二：Query（查询）
&lt;/h3&gt;&lt;p&gt;当你向 LLM 提问时：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;LLM 首先读取 &lt;code&gt;index.md&lt;/code&gt; 了解知识库全局结构&lt;/li&gt;
&lt;li&gt;根据问题定位相关的 wiki 页面&lt;/li&gt;
&lt;li&gt;阅读相关页面，综合回答，&lt;strong&gt;附上引用来源&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;如果答案质量足够好，将其作为新页面归档到 wiki 中&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;最后一点至关重要——你的探索和提问不是一次性的消耗，而是&lt;strong&gt;持续增值的投资&lt;/strong&gt;。每一次高质量的问答都会回流到知识库中，让它在下一次查询时更加丰富。&lt;/p&gt;
&lt;p&gt;Karpathy 的研究 wiki 在单个主题上已经增长到 &lt;strong&gt;~100 篇文章、~40 万词&lt;/strong&gt;。令人惊讶的是，在这个规模下，他发现&lt;strong&gt;不需要花哨的 RAG——LLM 自动维护的索引文件和简要摘要，已经足够让它找到所有重要的相关数据&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="操作三lint质检"&gt;操作三：Lint（质检）
&lt;/h3&gt;&lt;p&gt;定期对 wiki 进行&amp;quot;健康检查&amp;quot;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;矛盾检测&lt;/strong&gt;：不同页面之间的数据冲突&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;过时标注&lt;/strong&gt;：可能已经不准确的断言&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;孤立页面&lt;/strong&gt;：没有任何入链的页面&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;缺失引用&lt;/strong&gt;：应该存在但缺失的交叉引用&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;数据空白&lt;/strong&gt;：知识库中缺失的重要概念&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;新文章建议&lt;/strong&gt;：基于已有数据，发现值得深入探索的新方向&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;LLM 擅长的不只是回答问题，还包括&lt;strong&gt;提出问题&lt;/strong&gt;。Lint 操作让知识库自我进化。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="五关键基础设施索引与日志"&gt;五、关键基础设施：索引与日志
&lt;/h2&gt;&lt;h3 id="indexmd--知识的目录"&gt;index.md —— 知识的目录
&lt;/h3&gt;&lt;p&gt;这是 LLM 回答问题时&lt;strong&gt;首先读取的文件&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;以类别组织的全局目录&lt;/li&gt;
&lt;li&gt;每个页面附有链接、简要摘要和元数据&lt;/li&gt;
&lt;li&gt;每次 Ingest 后自动更新&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-markdown" data-lang="markdown"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## 机器学习
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; [&lt;span class="nt"&gt;Transformer 架构&lt;/span&gt;](&lt;span class="na"&gt;concepts/transformer.md&lt;/span&gt;) — 自注意力机制的核心原理及变体
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; [&lt;span class="nt"&gt;LoRA 微调&lt;/span&gt;](&lt;span class="na"&gt;concepts/lora.md&lt;/span&gt;) — 低秩适应的参数高效微调方法
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; [&lt;span class="nt"&gt;MoE 架构&lt;/span&gt;](&lt;span class="na"&gt;concepts/moe.md&lt;/span&gt;) — 混合专家模型的路由策略和效率权衡
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## 论文摘要
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; [&lt;span class="nt"&gt;Attention Is All You Need&lt;/span&gt;](&lt;span class="na"&gt;summaries/attention-paper.md&lt;/span&gt;) — Transformer 原始论文要点
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; [&lt;span class="nt"&gt;LoRA Paper&lt;/span&gt;](&lt;span class="na"&gt;summaries/lora-paper.md&lt;/span&gt;) — 低秩适应方法的理论基础
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h3 id="logmd--操作的时间线"&gt;log.md —— 操作的时间线
&lt;/h3&gt;&lt;p&gt;一个**只追加（append-only）**的时间记录：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-markdown" data-lang="markdown"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## [2026-04-01] ingest | Attention Is All You Need
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;添加 Transformer 原始论文。新建概念页：transformer.md, self-attention.md。
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;更新：index.md, nlp-overview.md
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## [2026-04-02] query | MoE vs Dense 的效率权衡
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;回答了关于 MoE 架构的查询，综合了 3 篇论文的观点。
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;输出归档为：analysis/moe-vs-dense.md
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## [2026-04-03] lint | 健康检查
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;发现 2 个矛盾（transformer.md 与 attention-paper.md 的参数数量不一致），
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;标注 3 个孤立页面，建议新文章：positional-encoding.md
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;这个日志有两个作用：一是让你追踪知识库的演化历程，二是其一致的格式使得程序化解析成为可能。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="六工具生态"&gt;六、工具生态
&lt;/h2&gt;&lt;h3 id="obsidian知识的可视化前端"&gt;Obsidian：知识的可视化前端
&lt;/h3&gt;&lt;p&gt;Karpathy 使用 Obsidian 作为&lt;strong&gt;阅读和导航界面&lt;/strong&gt;——不是用来写（写是 LLM 的事），而是用来&lt;strong&gt;看&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Graph View&lt;/strong&gt;：以图谱形式展示所有文章的互链关系，一眼看到知识结构&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;实时渲染&lt;/strong&gt;：LLM 在后台编辑 markdown 文件时，Obsidian 实时更新显示&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;反向链接面板&lt;/strong&gt;：查看哪些页面引用了当前页面&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Dataview 插件&lt;/strong&gt;：查询 YAML frontmatter，生成动态表格&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="marp从知识到演示"&gt;Marp：从知识到演示
&lt;/h3&gt;&lt;p&gt;&lt;a class="link" href="https://marp.app/" target="_blank" rel="noopener"
 &gt;Marp&lt;/a&gt; 是一个基于 markdown 的幻灯片工具。你可以让 LLM 从 wiki 中提取内容，直接生成演示文稿——知识到输出的转化链路极短。&lt;/p&gt;
&lt;h3 id="qmd本地搜索引擎"&gt;QMD：本地搜索引擎
&lt;/h3&gt;&lt;p&gt;当知识库规模增大时，需要更精确的搜索。&lt;a class="link" href="https://github.com/tobi/qmd" target="_blank" rel="noopener"
 &gt;QMD&lt;/a&gt; 是 Shopify 创始人 Tobi Lutke 开发的本地 markdown 搜索引擎：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;&lt;code&gt;qmd search&lt;/code&gt;&lt;/strong&gt;：BM25 全文关键词搜索（快速，无需模型）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;&lt;code&gt;qmd vsearch&lt;/code&gt;&lt;/strong&gt;：语义向量搜索（找概念相关但无关键词重叠的内容）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;&lt;code&gt;qmd query&lt;/code&gt;&lt;/strong&gt;：混合搜索 + LLM 重排序（最高质量）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;所有处理在本地运行，支持 MCP Server 协议，可直接被 Claude Code 等 Agent 调用。&lt;/p&gt;
&lt;p&gt;号称能实现 &lt;strong&gt;95%+ 的 token 节省&lt;/strong&gt;——哲学是：与其把整个知识库塞进上下文窗口，不如精确搜索后只传递相关内容。&lt;/p&gt;
&lt;h3 id="git时间机器"&gt;Git：时间机器
&lt;/h3&gt;&lt;p&gt;整个 wiki 就是一个 git 仓库。每一次 Ingest、Query、Lint 都产生可追踪的 diff。你可以：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;用 &lt;code&gt;git log&lt;/code&gt; 追踪知识的演化&lt;/li&gt;
&lt;li&gt;用 &lt;code&gt;git blame&lt;/code&gt; 追溯每一行的来源&lt;/li&gt;
&lt;li&gt;用 &lt;code&gt;git diff&lt;/code&gt; 查看每次操作的具体变更&lt;/li&gt;
&lt;li&gt;随时回滚到任意历史状态&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;纯文本 + Git = 可移植、有版本控制、工具无关、面向未来。文件比应用活得更久。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="七为什么这套方法真的有效"&gt;七、为什么这套方法真的有效
&lt;/h2&gt;&lt;p&gt;Karpathy 给出了一个简洁有力的解释：&lt;/p&gt;

 &lt;blockquote&gt;
 &lt;p&gt;&lt;strong&gt;&amp;ldquo;维护知识库的枯燥部分不是阅读或思考——而是簿记。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;p&gt;更新交叉引用、保持摘要最新、标注矛盾、维护一致性——这些工作是人类放弃维护 wiki 的根本原因。企业内部的 Confluence 为什么总是过时？个人的 Notion 笔记为什么半年后就成了废墟？因为&lt;strong&gt;维护成本太高&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;LLM 解决了这个问题：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;不会厌倦&lt;/strong&gt;：更新 15 个页面的交叉引用对 LLM 来说和更新 1 个一样轻松&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;不会遗忘&lt;/strong&gt;：每次 Ingest 都会检查所有相关页面&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;成本趋近于零&lt;/strong&gt;：维护的边际成本几乎可以忽略&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;无限耐心&lt;/strong&gt;：Lint 操作需要 N×N 的比较？没问题&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;人类负责有创造力的部分：&lt;strong&gt;选择什么值得读、提出什么问题、决定往什么方向深入。&lt;/strong&gt; LLM 负责一切机械性的簿记工作。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="八社区的尖锐争论"&gt;八、社区的尖锐争论
&lt;/h2&gt;&lt;p&gt;这条推文引发了激烈的讨论。支持者和批评者都提出了有价值的观点。&lt;/p&gt;
&lt;h3 id="支持方"&gt;支持方
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;&amp;ldquo;每家企业都有一个 raw/ 目录，但没人编译过它。这就是产品。&amp;rdquo;&lt;/strong&gt; —— 创业者 Vamshi Reddy 一语道破了商业潜力。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&amp;ldquo;这样你拥有记忆；在现有的平台部署中，拥有记忆的是平台。&amp;rdquo;&lt;/strong&gt; —— TeMPOraL 指出了数据主权的关键优势。所有数据都是本地 markdown 文件，不依赖任何平台。&lt;/p&gt;
&lt;h3 id="批评方思考的摩擦力"&gt;批评方：思考的摩擦力
&lt;/h3&gt;&lt;p&gt;最有哲学深度的批评来自知识管理社区。&lt;/p&gt;
&lt;p&gt;Extended Brain 的一篇分析文章直接指出了**&amp;ldquo;思考的摩擦力&amp;rdquo;&lt;strong&gt;问题：Niklas Luhmann 的 Zettelkasten（卡片盒笔记法）之所以有效，是因为&lt;/strong&gt;手动用自己的话重写想法&lt;strong&gt;这个动作本身就是思考的机制。当你写到一半写不下去的时候，那个卡壳的瞬间恰恰暴露了你理解上的空白——这种&lt;/strong&gt;有价值的阻力**，是 LLM 生成的综合分析无法替代的。&lt;/p&gt;
&lt;p&gt;Hacker News 的 qaadika 也提出了类似观点：&lt;/p&gt;

 &lt;blockquote&gt;
 &lt;p&gt;&lt;strong&gt;&amp;ldquo;正是在做这些事情的过程中，新想法才会涌现……我的许多洞见都来自于偶然看到一条笔记紧接着另一条笔记。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;h3 id="批评方幻觉污染"&gt;批评方：幻觉污染
&lt;/h3&gt;&lt;p&gt;另一个实际的担忧：LLM 在生成 wiki 内容时可能引入幻觉，而这些幻觉会被后续的查询当作事实引用，形成&lt;strong&gt;幻觉的复利效应&lt;/strong&gt;——不是知识在复利增长，而是错误在复利增长。&lt;/p&gt;
&lt;p&gt;jdthedisciple 在 HN 上说：&lt;strong&gt;&amp;ldquo;我宁愿每次都引用原始文档，而不是一个我可能没时间去核实的 LLM 生成的 wiki。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;
&lt;h3 id="我的看法两者不矛盾"&gt;我的看法：两者不矛盾
&lt;/h3&gt;&lt;p&gt;这两种批评都有道理，但并不意味着 LLM Wiki 模式无价值。关键是找到正确的分工：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;LLM 负责基础设施和地图&lt;/strong&gt;：索引、交叉引用、摘要、矛盾标注&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;人类负责综合和思考&lt;/strong&gt;：基于 LLM 的地图，做出自己的判断和创造&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;溯源机制不可省略&lt;/strong&gt;：每一个 wiki 断言都应该能追溯到 &lt;code&gt;raw/&lt;/code&gt; 中的原始来源&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;社区中一些成熟的实现已经在解决这些问题：基于内容 hash 的新鲜度验证、propositions 级别的来源追踪、AI 生成内容和人类编写内容的明确标记等。&lt;/p&gt;
&lt;p&gt;&lt;img alt="LLM Wiki 中人与 AI 的分工模式" class="gallery-image" data-flex-basis="430px" data-flex-grow="179" height="1536" loading="lazy" sizes="(max-width: 767px) calc(100vw - 30px), (max-width: 1023px) 700px, (max-width: 1279px) 950px, 1232px" src="https://luoli523.github.io/p/karpathy-llm-wiki/human-ai-division.webp" srcset="https://luoli523.github.io/p/karpathy-llm-wiki/human-ai-division_hu_e5c5a5beb63f9249.webp 800w, https://luoli523.github.io/p/karpathy-llm-wiki/human-ai-division_hu_8d739e2740c2b82.webp 1600w, https://luoli523.github.io/p/karpathy-llm-wiki/human-ai-division_hu_708f816a24c33142.webp 2400w, https://luoli523.github.io/p/karpathy-llm-wiki/human-ai-division.webp 2752w" width="2752"&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="九社区实践中沉淀的高级模式"&gt;九、社区实践中沉淀的高级模式
&lt;/h2&gt;&lt;p&gt;Gist 的评论区和 HN 讨论中，实践者们贡献了不少有价值的改进模式：&lt;/p&gt;
&lt;h3 id="1-分类后再提取"&gt;1. 分类后再提取
&lt;/h3&gt;&lt;p&gt;不同类型的文档需要不同的处理策略——报告和信件的提取方式完全不同。先分类，再用对应的模板提取。&lt;/p&gt;
&lt;h3 id="2-token-预算分级"&gt;2. Token 预算分级
&lt;/h3&gt;&lt;p&gt;为索引设计四级上下文策略：&lt;/p&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;级别&lt;/th&gt;
 &lt;th&gt;内容&lt;/th&gt;
 &lt;th&gt;用途&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;L0&lt;/td&gt;
 &lt;td&gt;页面标题列表&lt;/td&gt;
 &lt;td&gt;快速概览&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;L1&lt;/td&gt;
 &lt;td&gt;标题 + 一句话摘要&lt;/td&gt;
 &lt;td&gt;定位相关页面&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;L2&lt;/td&gt;
 &lt;td&gt;完整摘要&lt;/td&gt;
 &lt;td&gt;深入了解&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;L3&lt;/td&gt;
 &lt;td&gt;全文&lt;/td&gt;
 &lt;td&gt;精确引用&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;LLM 根据查询复杂度选择合适的级别，避免要么读太少要么烧光上下文。&lt;/p&gt;
&lt;h3 id="3-类型化模板"&gt;3. 类型化模板
&lt;/h3&gt;&lt;p&gt;使用基于实体类型的页面结构（人物模板、技术模板、论文模板），而非通用模板。这比自由格式能更好地维护一致性。&lt;/p&gt;
&lt;h3 id="4-决策记录"&gt;4. 决策记录
&lt;/h3&gt;&lt;p&gt;不只记录&amp;quot;知识变了什么&amp;quot;，还记录&amp;quot;为什么变&amp;quot;。当 wiki 页面被修改时，同时生成 decision record 记录推理过程和被否决的替代方案。&lt;/p&gt;
&lt;h3 id="5-隐私分层"&gt;5. 隐私分层
&lt;/h3&gt;&lt;p&gt;敏感内容用本地模型（如 Ollama）处理，通用内容用云端模型（如 Claude）。这让机构级部署成为可能。&lt;/p&gt;
&lt;h3 id="6-规模瓶颈感知"&gt;6. 规模瓶颈感知
&lt;/h3&gt;&lt;p&gt;纯 markdown 方案在 &lt;strong&gt;~500 个文档&lt;/strong&gt; 以内表现良好。超过这个规模，考虑引入 SQLite 存储元数据，或使用 QMD 等搜索工具辅助定位。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="十未来方向从上下文到权重"&gt;十、未来方向：从上下文到权重
&lt;/h2&gt;&lt;p&gt;Karpathy 在推文中提到了一个意味深长的方向：&lt;/p&gt;

 &lt;blockquote&gt;
 &lt;p&gt;&lt;strong&gt;&amp;ldquo;当知识库足够大时，自然会想到合成数据生成 + 微调，让 LLM 把数据&amp;rsquo;知道&amp;rsquo;在权重里，而非仅靠上下文窗口。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;

 &lt;/blockquote&gt;
&lt;p&gt;这描述了一条完整的知识管道：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;原始资料 → LLM 编译为 wiki → wiki 作为高质量训练数据 → 微调领域专用模型
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;一个维护良好的 wiki 本身就是&lt;strong&gt;高质量的合成训练数据&lt;/strong&gt;——它结构化、有引用、有交叉验证、不断被 lint。这可能是通往个人化、领域化 LLM 的最自然路径。&lt;/p&gt;
&lt;p&gt;加上上下文窗口的指数级增长（GPT-3 的 2K → Gemini 2.0 Pro 的 2M，&lt;strong&gt;1000 倍增长&lt;/strong&gt;），&amp;ldquo;把整个 wiki 加载到单次上下文&amp;quot;的方式在当前规模下完全可行，无需向量数据库。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="十一动手实践从零构建你的-llm-wiki"&gt;十一、动手实践：从零构建你的 LLM Wiki
&lt;/h2&gt;&lt;p&gt;理论说完了，下面是可执行、可落地、可见成效的实践路径。&lt;/p&gt;
&lt;h3 id="阶段一最小可行-wiki第-1-2-天"&gt;阶段一：最小可行 Wiki（第 1-2 天）
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;目标&lt;/strong&gt;：跑通完整的 Ingest → Query 循环，感受知识编译的效果。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;具体步骤&lt;/strong&gt;：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;创建项目目录结构&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;span class="lnt"&gt;2
&lt;/span&gt;&lt;span class="lnt"&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;mkdir -p my-wiki/&lt;span class="o"&gt;{&lt;/span&gt;raw,wiki,wiki/summaries,wiki/concepts&lt;span class="o"&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="nb"&gt;cd&lt;/span&gt; my-wiki
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;git init
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;编写 Schema 文件&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;创建 &lt;code&gt;CLAUDE.md&lt;/code&gt;（如果用 Claude Code）或等效的系统提示：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt; 1
&lt;/span&gt;&lt;span class="lnt"&gt; 2
&lt;/span&gt;&lt;span class="lnt"&gt; 3
&lt;/span&gt;&lt;span class="lnt"&gt; 4
&lt;/span&gt;&lt;span class="lnt"&gt; 5
&lt;/span&gt;&lt;span class="lnt"&gt; 6
&lt;/span&gt;&lt;span class="lnt"&gt; 7
&lt;/span&gt;&lt;span class="lnt"&gt; 8
&lt;/span&gt;&lt;span class="lnt"&gt; 9
&lt;/span&gt;&lt;span class="lnt"&gt;10
&lt;/span&gt;&lt;span class="lnt"&gt;11
&lt;/span&gt;&lt;span class="lnt"&gt;12
&lt;/span&gt;&lt;span class="lnt"&gt;13
&lt;/span&gt;&lt;span class="lnt"&gt;14
&lt;/span&gt;&lt;span class="lnt"&gt;15
&lt;/span&gt;&lt;span class="lnt"&gt;16
&lt;/span&gt;&lt;span class="lnt"&gt;17
&lt;/span&gt;&lt;span class="lnt"&gt;18
&lt;/span&gt;&lt;span class="lnt"&gt;19
&lt;/span&gt;&lt;span class="lnt"&gt;20
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-markdown" data-lang="markdown"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gh"&gt;# Wiki Schema
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## 结构
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; raw/: 原始资料，只读
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; wiki/index.md: 全局目录，按类别组织
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; wiki/log.md: 操作日志，只追加
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; wiki/summaries/: 每个原始资料的摘要
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; wiki/concepts/: 概念页面
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## Ingest 工作流
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;当我说&amp;#34;ingest &amp;lt;文件&amp;gt;&amp;#34;时：
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;1.&lt;/span&gt; 阅读 raw/ 中的指定文件
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;2.&lt;/span&gt; 在 wiki/summaries/ 创建摘要页
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;3.&lt;/span&gt; 识别关键概念，创建或更新 wiki/concepts/ 中的概念页
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;4.&lt;/span&gt; 更新 wiki/index.md
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;5.&lt;/span&gt; 在 wiki/log.md 追加记录
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="gu"&gt;## 页面格式
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;每个 .md 文件开头包含 YAML frontmatter：
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;&lt;span class="k"&gt;-&lt;/span&gt; title, date, sources, related
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;采集 3-5 篇你感兴趣领域的文章到 &lt;code&gt;raw/&lt;/code&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;可以用 Obsidian Web Clipper，也可以手动复制粘贴为 markdown。&lt;/p&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;strong&gt;逐个 Ingest&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;在 Claude Code（或你选择的 LLM Agent）中：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;ingest raw/article-1.md
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;观察 LLM 如何创建摘要、识别概念、更新索引。&lt;/p&gt;
&lt;ol start="5"&gt;
&lt;li&gt;&lt;strong&gt;提一个需要跨文档综合的问题&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;这几篇文章在 XX 主题上有什么共识和分歧？
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;&lt;strong&gt;预期成果&lt;/strong&gt;：3-5 篇原始资料 → 3-5 个摘要页 + 若干概念页 + 1 个索引 + 1 个日志。你会直观感受到&amp;quot;编译&amp;quot;和&amp;quot;检索&amp;quot;的区别。&lt;/p&gt;
&lt;h3 id="阶段二建立-obsidian-工作流第-3-5-天"&gt;阶段二：建立 Obsidian 工作流（第 3-5 天）
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;目标&lt;/strong&gt;：让知识库可视化，建立高效的采集通道。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;具体步骤&lt;/strong&gt;：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;用 Obsidian 打开 wiki 目录&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;安装 Obsidian，将 &lt;code&gt;my-wiki/&lt;/code&gt; 作为 Vault 打开&lt;/li&gt;
&lt;li&gt;打开 Graph View，观察页面互链的图谱&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;安装关键插件&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;table&gt;
 &lt;thead&gt;
 &lt;tr&gt;
 &lt;th&gt;插件&lt;/th&gt;
 &lt;th&gt;用途&lt;/th&gt;
 &lt;/tr&gt;
 &lt;/thead&gt;
 &lt;tbody&gt;
 &lt;tr&gt;
 &lt;td&gt;Obsidian Web Clipper&lt;/td&gt;
 &lt;td&gt;一键采集网页到 &lt;code&gt;raw/&lt;/code&gt;&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Dataview&lt;/td&gt;
 &lt;td&gt;动态查询 frontmatter 数据&lt;/td&gt;
 &lt;/tr&gt;
 &lt;tr&gt;
 &lt;td&gt;Marp Slides&lt;/td&gt;
 &lt;td&gt;将 wiki 内容转为幻灯片&lt;/td&gt;
 &lt;/tr&gt;
 &lt;/tbody&gt;
&lt;/table&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;建立采集习惯&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;浏览到有价值的文章 → Web Clipper 保存到 &lt;code&gt;raw/&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;下载相关图片到本地（Obsidian 快捷键）&lt;/li&gt;
&lt;li&gt;定期（每天或每周）批量 Ingest&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;strong&gt;开始提问和归档&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;每次查询后评估答案质量&lt;/li&gt;
&lt;li&gt;好的答案让 LLM 归档为新 wiki 页面&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;预期成果&lt;/strong&gt;：原始资料增长到 10-20 篇，wiki 开始呈现有意义的图谱结构。&lt;/p&gt;
&lt;h3 id="阶段三引入-lint-和工具链第-2-3-周"&gt;阶段三：引入 Lint 和工具链（第 2-3 周）
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;目标&lt;/strong&gt;：让知识库自我进化，提升数据完整性。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;具体步骤&lt;/strong&gt;：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;运行第一次 Lint&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;span class="lnt"&gt;2
&lt;/span&gt;&lt;span class="lnt"&gt;3
&lt;/span&gt;&lt;span class="lnt"&gt;4
&lt;/span&gt;&lt;span class="lnt"&gt;5
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-fallback" data-lang="fallback"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;对整个 wiki 做一次健康检查：
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;- 找出页面之间的矛盾
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;- 标注可能过时的断言
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;- 列出缺失交叉引用的孤立页面
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;- 建议值得新增的概念页
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;安装 QMD&lt;/strong&gt;（可选，当规模超过 50 篇时建议引入）&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight"&gt;&lt;div class="chroma"&gt;
&lt;table class="lntable"&gt;&lt;tr&gt;&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code&gt;&lt;span class="lnt"&gt;1
&lt;/span&gt;&lt;span class="lnt"&gt;2
&lt;/span&gt;&lt;span class="lnt"&gt;3
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class="lntd"&gt;
&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;npm install -g @tobilu/qmd
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;qmd index wiki/
&lt;/span&gt;&lt;/span&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;qmd search &lt;span class="s2"&gt;&amp;#34;你的查询&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;建立定期维护节奏&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;每周一次 Lint&lt;/li&gt;
&lt;li&gt;每次 Lint 后根据建议执行 2-3 个改进&lt;/li&gt;
&lt;li&gt;追踪 &lt;code&gt;log.md&lt;/code&gt; 的增长趋势&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;预期成果&lt;/strong&gt;：wiki 开始自我修复和自我增强。你会发现 LLM 建议的新方向经常出乎意料地有价值。&lt;/p&gt;
&lt;h3 id="阶段四输出和复用第-4-周"&gt;阶段四：输出和复用（第 4 周+）
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;目标&lt;/strong&gt;：让知识库产出实际价值。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;具体场景&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;写报告&lt;/strong&gt;：让 LLM 基于 wiki 生成特定主题的分析报告&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;做演示&lt;/strong&gt;：用 Marp 格式输出幻灯片&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;生成可视化&lt;/strong&gt;：让 LLM 用 matplotlib 生成数据图表&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;回答复杂问题&lt;/strong&gt;：wiki 越大，能回答的问题越复杂&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;发现盲区&lt;/strong&gt;：通过 Lint 发现你知识体系中的空白&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;每一次输出都可以考虑归档回 wiki，形成正向循环。&lt;/p&gt;
&lt;h3 id="进阶方向"&gt;进阶方向
&lt;/h3&gt;&lt;p&gt;当你的 wiki 稳定运行一个月以上，可以考虑：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;多主题 Wiki&lt;/strong&gt;：为不同研究方向建立独立的 wiki&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;MCP 集成&lt;/strong&gt;：将 wiki 搜索暴露为 MCP Server，让其他 Agent 也能查询&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;自定义 CLI 工具&lt;/strong&gt;：基于你的特定需求开发辅助脚本&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;微调实验&lt;/strong&gt;：将 wiki 内容转化为 QA 对，微调一个领域专用的小模型&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h2 id="十二总结"&gt;十二、总结
&lt;/h2&gt;&lt;p&gt;Karpathy 提出的不是一个工具，而是一个&lt;strong&gt;设计模式&lt;/strong&gt;：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;人类策展，LLM 编译&lt;/strong&gt;——人负责选择、提问、思考；LLM 负责簿记、索引、维护&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;编译优于检索&lt;/strong&gt;——知识编译一次、持续更新，而非每次查询都从零推导&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;复利效应&lt;/strong&gt;——每一次 Ingest 和 Query 都让知识库变得更丰富&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;维护成本趋零&lt;/strong&gt;——LLM 解决了 Bush 1945 年就发现的维护问题&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;纯文本哲学&lt;/strong&gt;——Markdown + Git，可移植、有版本、面向未来&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;从 1945 年 Vannevar Bush 的 Memex 构想，到 2026 年 Karpathy 的 LLM Wiki 实践，人类花了 81 年找到了解决个人知识管理维护难题的方案。答案是：&lt;strong&gt;把维护交给不会厌倦的 LLM，把思考留给自己。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt="LLM Wiki 完整工作流总览" class="gallery-image" data-flex-basis="360px" data-flex-grow="150" height="1684" loading="lazy" sizes="(max-width: 767px) calc(100vw - 30px), (max-width: 1023px) 700px, (max-width: 1279px) 950px, 1232px" src="https://luoli523.github.io/p/karpathy-llm-wiki/workflow-overview.webp" srcset="https://luoli523.github.io/p/karpathy-llm-wiki/workflow-overview_hu_4ec695d9c738730c.webp 800w, https://luoli523.github.io/p/karpathy-llm-wiki/workflow-overview_hu_256b3f4f5d99b69c.webp 1600w, https://luoli523.github.io/p/karpathy-llm-wiki/workflow-overview_hu_32bbbfe7529bb46f.webp 2400w, https://luoli523.github.io/p/karpathy-llm-wiki/workflow-overview.webp 2528w" width="2528"&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="参考资料"&gt;参考资料
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://x.com/karpathy/status/2039805659525644595" target="_blank" rel="noopener"
 &gt;Karpathy 原始推文&lt;/a&gt;（2026.04.03）&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f" target="_blank" rel="noopener"
 &gt;Karpathy GitHub Gist: LLM Wiki&lt;/a&gt;（2026.04.04）&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://news.ycombinator.com/item?id=47640875" target="_blank" rel="noopener"
 &gt;Hacker News 讨论&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.w3.org/History/1945/vbush/vbush.shtml" target="_blank" rel="noopener"
 &gt;Vannevar Bush, &amp;ldquo;As We May Think&amp;rdquo;, The Atlantic, 1945&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/tobi/qmd" target="_blank" rel="noopener"
 &gt;QMD - Local Markdown Search Engine&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://extendedbrain.substack.com/p/the-wiki-that-writes-itself" target="_blank" rel="noopener"
 &gt;Extended Brain: &amp;ldquo;The Wiki That Writes Itself&amp;rdquo;&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/abs/2502.12110" target="_blank" rel="noopener"
 &gt;A-MEM: Agentic Memory for LLM Agents (arXiv:2502.12110)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/SingggggYee/awesome-llm-knowledge-bases" target="_blank" rel="noopener"
 &gt;Awesome LLM Knowledge Bases&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>