← Back

别再吹 RAG 了!Karpathy 的"第二大脑"才是 AI 的未来

AI·1 min read·Apr 27, 2026

#别再吹 RAG 了!Karpathy 的"第二大脑"才是 AI 的未来

Hello 大家好,我是老麦。

最近刷到 AI 大神 Andrej Karpathy 发的一个新项目,看完我愣了好几秒。

他说了一句话,老麦觉得特别扎心:现在大家都在吹的 RAG,可能根本不是 AI 应用的最优解。

取而代之的,是一种叫"LLM Wiki"的东西——让 AI 拥有一个真正能"记住东西"的第二大脑。

说实话,第一眼看到这四个字,我是有点不以为然的。

什么叫第二大脑?不就是个高级笔记软件吗?Notion 我也在用,Obsidian 也存了不少东西,感觉没那么玄乎啊。

直到认真研究了他的设计思路,才发现——我们之前折腾的那个"AI 知识库",方向完全搞错了。

RAG 为什么会越来越慢?

图片

先简单科普一下 RAG 是什么。就是现在最常用的那套:往向量数据库里塞文档,问问题时相似度匹配,context 里一塞,搞定。

但问题很快就来了。

你问 AI:"我上周发的那篇稿子主要讲了什么?"

AI 一脸蒙——因为它是真的不记得你上周发了什么。每次对话都是全新的,它得从文档里重新理解一遍上下文。

一份报告被引用了三次,每次都要重新消化一遍。两个朋友讨论事情,AI 完全分不清谁是谁。文档格式不统一,搜出来的东西七零八落。

Karpathy 管这叫什么?"每次查询都在重新发明轮子。"

这个问题,我自己在用 AI 处理工作文档的时候感受特别深。同一个项目的东西问了 N 遍,AI 每次都跟第一次见一样,得重新交代背景,真的累。

他的解法是什么?

不是让 AI 更快地检索,而是让 AI 增量地建造一个真正属于自己的知识库。

这个知识库不是简单地把文档扔进去,而是一个活的、会自我进化的 wiki。AI 每读一篇新文章,不只是存档摘要,而是修改已有页面、补充交叉引用、更新过时内容。

就像一个永远不会累、不会忘、也不会偷懒的老编辑,在帮你持续维护一本百科全书。

具体怎么运作呢?他设计了三层:

图片

第一层,原始文档——只读不写,就扔在那里,告诉你"原件在这"。

第二层,Wiki——这是核心,AI 生成和维护的所有内容都在这里。它不是机械地存储,而是主动组织、关联、更新。

第三层,Schema——你可以理解为使用说明书,告诉 AI 怎么维护这个 wiki。

三层各司其职,干净利落。

三个核心操作,用谈恋爱类比保证你听懂

图片

第一个叫 Ingest,摄取——往系统里扔新资料。

你丢一篇新的文章给它,AI 会同时更新 10 到 15 个 wiki 页面。不只是新建,还会修改旧的、补充交叉引用、更新之前因为信息不足而写模糊的地方。

类比一下的话,这就像是高情商的对象——你说的每件事它不仅记住了,还主动串联到你俩之前的所有经历里,形成一张网。

第二个叫 Query,查询——问问题。

AI 直接在你的 wiki 里找答案,而不是每次都去搜索引擎翻。更绝的是,如果 AI 发现自己给的答案特别好,它会主动把这个回答归档成新页面,下次直接调取。

这就像你有个老朋友,你问他什么事,他不只是现想,而是翻出之前整理过的笔记,效率完全不一样。

第三个叫 Lint,检查——定期体检。

AI 自动检查矛盾内容、孤立页面、缺失的交叉引用。就像两个人在一起久了做"关系复盘",发现认知不一致的地方及时修正,防止误会越积越深。

三个操作形成了一个闭环:摄入 → 查询 → 检查 → 再摄入。

五十年前的一个构想,被 AI 实现了

说到这里,老麦必须提一个让我特别感慨的彩蛋。

图片

Karpathy 提到了 Vannevar Bush——1945 年,这老哥就提出了一个疯狂的想法:人类需要一台"Memex",一个个人管理的知识库,通过关联链条而不是层级分类来组织信息。

Bush 的想法超前了整整一代,《失控》的凯文·凯利后来说他是"网络思维"的先知。但 Bush 解决不了一个根本问题:谁来负责维护?

维护知识库这件事,耗时长、琐碎、重复,人来做太痛苦了。所以 Memex 只存在论文里,没有真正落地。

而现在,LLMs 恰好擅长做这件事——它们不厌倦、不遗忘、能一次操作修改 15 个文件。

知识管理的瓶颈从来不是"思考",而是"记账"。

这句话看完我心里咯噔一下,确实是这么回事。

但这里有个坑,Token 成本是真实的

Wiki 越大,每次启动加载 index 文件的开销就越高。这不是玄学问题,是实实在在的钱的问题。

社区已经探索了几种解法:用 BM25 替代向量搜索,把大文件隔离在沙箱里,用"原始人"格式压缩文件,还有一个挺有意思的思路——维持双层会话摘要,一份精简版 markdown 加一份完整 JSONL,按需调用。

老麦自己的感受是,如果你只是个人用,规模不大,这个成本完全可以接受。但如果你是团队用,或者 wiki 打算长期积累,那在一开始就要想清楚存储和检索的架构。

但最重要的不是技术,是你自己的知识体系

说了这么多,可能有人要问了:老麦,这玩意儿跟我自己记笔记有什么区别?

说实话,如果你有极强的自律能力和整理能力,传统的笔记方法完全够用。

但问题就是,绝大多数人,包括我自己,坚持不下来。

记笔记最痛苦的不是"记",而是"整理"。今天看了一篇文章,存了;下周再看一篇,发现跟之前的有关联,但懒得回去改;一个月后回头看,全是孤立的碎片,根本串不起来。

LLM Wiki 解决的就是这个问题——你只管往里扔,AI 帮你维护那张网。

你不需要完美整理,AI 会帮你补全关联。你不需要记住每篇文章讲了什么,AI 会帮你提炼成一张张可交叉引用的页面。

这种体验,老麦亲测下来,就一个字:爽。

就像你有个永不疲倦的私人助理,帮你把所有的信息都整理得服服帖帖。

老麦的灵魂总结:授人以鱼不如授人以渔,但 AI 直接给你一整套钓鱼系统

图片

最后说说我自己的思考。

Karpathy 这套方法,本质上解决的是一个问题:AI 如何真正成为个人知识的放大器,而不是一次性的问答机器。

现在大多数 AI 应用,都是"用完即走"的模式。你问它一个问题,它给你一个答案,结束。下一个问题,重新开始。

但人的知识是累积的,是需要不断生长和连接的。如果 AI 每次都在重新发明轮子,那它的价值就永远停留在"搜索引擎的替代品"这个层级。

LLM Wiki 让我看到了一种可能:AI 可以成为一个真正属于你自己的知识生态系统。

你喂它越多的内容,它就越懂你,越能帮你发现那些你自己都没注意到的关联。

就像一个老朋友,记得你说过的每一句话,还能帮你串起来,给你新的启发。

这种体验,很难用语言描述,但你一旦体会了,就回不去了。

好了,以上就是本期的全部内容。你有没有想过给自己的知识建一个"第二大脑"?或者你有什么维护个人知识库的好方法?欢迎在评论区跟老麦聊聊,我们下期见!

L

老麦克

老麦克的AI进化论

Related Articles

AI1 min read

AI时代还想写代码赚钱?你写了个寂寞啊

Skill是给AI写操作手册,Markdown格式可复用。当前类似2008年App Store,门槛极低——懂行业+写文档就能入场。变现路径:开源引流、垂直订阅、企业定制。避开四个坑:写成prompt、教AI写代码、描述模糊、贪多求全。数字资产,长期复利,机会窗口仅一年。

Apr 30, 20260💬 0