qmd 原子化筆記方案
將知識以原子化 Markdown 筆記存放,筆記之間用 雙向連結 建立關聯,再用 qmd(Shopify 創辦人 Tobi 開發的混合搜尋引擎)做檢索。
qmd 結合三層檢索:BM25 關鍵字搜尋 + 向量語意搜尋 + LLM re-ranking,全部跑在本機(透過內建 GGUF 模型,由 node-llama-cpp 驅動,不需要 Ollama)。
這個方案的關鍵優勢是內容與關聯合一。 連結 直接寫在筆記正文中,不存在內容與圖譜脫節的問題。筆記不是原文複製貼上,而是 LLM 增強版本——可加入背景知識連結、常見錯誤、解題策略等教材原文沒有的內容。
更進一步,這個方案天然支援 agentic flow:LLM 讀完檢索到的筆記後,看到文中的 連結,可以主動再次檢索被引用的筆記,迭代擴展 context 直到足夠回答問題。這等於用文本中的連結模擬了圖譜遍歷,但更靈活。
Pipeline:PDF 教材 → LLM(Opus 4.5)拆分為原子化增強筆記 → qmd collection add + qmd embed 建索引 → 查詢時 qmd query 檢索 + LLM 生成回答。
為什麼重要
在一人開發、驗證階段的產品中,qmd 方案的開發速度、維護成本、可讀性都遠優於 Graph RAG,同時回答品質可能更好(因為筆記本身是 LLM 增強過的)。體現了「最簡架構解決問題」的工程原則。
連結
- 上層:Claude 對話 - 高中教材知識庫的 RAG 實現方案
- 相關:RAG 與 Graph RAG 的本質差異、內容品質勝過檢索技術、用 LLM 建構增強型知識筆記
- 工具:QMD 本地語義搜尋工具