LLM-compiled personal knowledge base
用 LLM 自動編譯的個人知識庫
"One simply siphons the excess thoughts from one's mind, pours them into the basin, and examines them at one's leisure." — Albus Dumbledore
「只要把多餘的念頭從腦中抽出,倒進儲思盆裡,就能慢慢仔細回顧。」 — 阿不思.鄧不利多
Raw sources go in. A structured, interlinked wiki comes out. You never touch the wiki directly — it belongs to the LLM.
丟進原始資料,跑出結構化、交叉連結的 wiki。你完全不用手動編輯 wiki — 那是 LLM 的工作。
Articles, papers, repos, datasets
文章、論文、repo、資料集
Summarize, extract, write, index
摘要、提取、撰寫、索引
Structured knowledge base
結構化知識庫
Reports, slides, insights
報告、簡報、洞察
A complete system for building living knowledge from raw sources.
從原始資料打造會成長的知識庫,你需要的工具全都有。
URLs, PDFs, markdown, Git repos. Images auto-downloaded, metadata auto-generated.
支援網頁、PDF、Markdown、Git repo。自動下載圖片、自動產生 metadata。
Summarize, extract concepts, write articles, build index, glossary, concept graph.
自動摘要、抽取概念、撰寫文章、建索引、詞彙表、概念圖譜。全自動化。
Natural language questions answered as text, research reports, or Marp slides.
用自然語言問問題,用文字、研究報告或 Marp 簡報回答你。
Keyword and semantic search with built-in web UI. Cached for instant results.
關鍵字搜尋 + 語意搜尋,內建 Web 介面,有快取秒回結果。
Broken links, orphans, missing frontmatter. Auto-fix and LLM improvement suggestions.
找出壞掉的連結、孤立文章、缺少的 frontmatter。自動修復,還能請 LLM 給改善建議。
Runs on your machine with Ollama. No data leaves. Cloud APIs as optional fallback.
用 Ollama 跑在你自己的電腦上,資料完全不會外流。雲端 API 當備援可選用。
Graph view, Dataview dashboard, Marp slides. Browse your wiki beautifully.
知識圖譜、Dataview 儀表板、Marp 簡報,在 Obsidian 裡漂亮地瀏覽你的 wiki。
Query results file back into the wiki. Knowledge compounds with every question.
查詢結果自動存回 wiki,你的每次提問都在幫知識庫長大。
# Clone and set up
git clone https://github.com/ceparadise168/Pensieve.git
cd Pensieve && bash scripts/bootstrap.sh
# Start Ollama
ollama serve
# Ingest your first source
./tools/kb ingest url "https://example.com/article"
# Compile the wiki
./tools/kb compile --full
# Ask questions
./tools/kb query "What are the key concepts?"
# Generate slides
./tools/kb query "Overview of main themes" --output slidesLocal inference on Apple Silicon via Ollama. No GPU required.
在 Apple Silicon Mac 上用 Ollama 跑本地推理,不需要獨立顯卡。
| Task | 任務 | Model | 模型 | Size | 大小 | Notes | 說明 |
|---|---|---|---|---|---|---|---|
| Fast | 快速 | qwen2.5:3b | ~2 GB | Summarization, tagging | 摘要、標籤 | ||
| Main | 主力 | gemma4 | ~10 GB | Articles, Q&A, linting | 撰寫、問答、檢查 | ||
| Main (alt) | 主力 (替代) | qwen3:14b | ~12 GB | Hybrid thinking mode | 混合思維模式 | ||
| Complex | 複雜推理 | deepseek-r1:32b | ~24 GB | Chain-of-thought reasoning | 思維鏈推理 | ||
| Embed | 嵌入 | nomic-embed-text | ~0.3 GB | Semantic search vectors | 語意搜尋向量 |