qmd 原子化筆記方案

將知識以原子化 Markdown 筆記存放,筆記之間用 雙向連結 建立關聯,再用 qmd(Shopify 創辦人 Tobi 開發的混合搜尋引擎)做檢索。

qmd 結合三層檢索:BM25 關鍵字搜尋 + 向量語意搜尋 + LLM re-ranking,全部跑在本機(透過內建 GGUF 模型,由 node-llama-cpp 驅動,不需要 Ollama)。

這個方案的關鍵優勢是內容與關聯合一。 連結 直接寫在筆記正文中,不存在內容與圖譜脫節的問題。筆記不是原文複製貼上,而是 LLM 增強版本——可加入背景知識連結、常見錯誤、解題策略等教材原文沒有的內容。

更進一步,這個方案天然支援 agentic flow:LLM 讀完檢索到的筆記後,看到文中的 連結,可以主動再次檢索被引用的筆記,迭代擴展 context 直到足夠回答問題。這等於用文本中的連結模擬了圖譜遍歷,但更靈活。

Pipeline:PDF 教材 → LLM(Opus 4.5)拆分為原子化增強筆記 → qmd collection add + qmd embed 建索引 → 查詢時 qmd query 檢索 + LLM 生成回答。

為什麼重要

在一人開發、驗證階段的產品中,qmd 方案的開發速度、維護成本、可讀性都遠優於 Graph RAG,同時回答品質可能更好(因為筆記本身是 LLM 增強過的)。體現了「最簡架構解決問題」的工程原則。

連結

參考