Pensieve

LLM-compiled personal knowledge base

用 LLM 自動編譯的個人知識庫

"One simply siphons the excess thoughts from one's mind, pours them into the basin, and examines them at one's leisure." — Albus Dumbledore

「只要把多餘的念頭從腦中抽出,倒進儲思盆裡,就能慢慢仔細回顧。」 — 阿不思.鄧不利多

View Source查看原始碼 Quick Start快速開始

You curate. The LLM compiles.

你策展,LLM 編譯。

Raw sources go in. A structured, interlinked wiki comes out. You never touch the wiki directly — it belongs to the LLM.

丟進原始資料,跑出結構化、交叉連結的 wiki。你完全不用手動編輯 wiki — 那是 LLM 的工作。

Traditional PKM

傳統知識管理

  • Human reads the source
  • 自己讀原始資料
  • Human writes summaries
  • 自己寫摘要筆記
  • Human organizes and tags
  • 自己分類打標籤
  • Human maintains links
  • 自己維護文件連結
  • Human searches manually
  • 自己搜尋找資料

Pensieve

  • Human curates sources
  • 你只負責收集來源
  • LLM summarizes everything
  • LLM 幫你做摘要
  • LLM writes wiki articles
  • LLM 幫你寫文章
  • LLM builds index & graph
  • LLM 建索引和知識圖譜
  • LLM answers your questions
  • LLM 回答你的問題
📜

raw/

Articles, papers, repos, datasets

文章、論文、repo、資料集

⚙️

compile

編譯

Summarize, extract, write, index

摘要、提取、撰寫、索引

📖

wiki/

Structured knowledge base

結構化知識庫

💡

query

查詢

Reports, slides, insights

報告、簡報、洞察

Everything the basin holds

儲思盆裡的一切

A complete system for building living knowledge from raw sources.

從原始資料打造會成長的知識庫,你需要的工具全都有。

01

Smart Ingest

智慧匯入

URLs, PDFs, markdown, Git repos. Images auto-downloaded, metadata auto-generated.

支援網頁、PDF、Markdown、Git repo。自動下載圖片、自動產生 metadata。

02

6-Step Compiler

六步驟編譯器

Summarize, extract concepts, write articles, build index, glossary, concept graph.

自動摘要、抽取概念、撰寫文章、建索引、詞彙表、概念圖譜。全自動化。

03

Q&A Engine

問答引擎

Natural language questions answered as text, research reports, or Marp slides.

用自然語言問問題,用文字、研究報告或 Marp 簡報回答你。

04

Search

搜尋引擎

Keyword and semantic search with built-in web UI. Cached for instant results.

關鍵字搜尋 + 語意搜尋,內建 Web 介面,有快取秒回結果。

05

Wiki Linter

Wiki 檢查器

Broken links, orphans, missing frontmatter. Auto-fix and LLM improvement suggestions.

找出壞掉的連結、孤立文章、缺少的 frontmatter。自動修復,還能請 LLM 給改善建議。

06

100% Local

完全本地運行

Runs on your machine with Ollama. No data leaves. Cloud APIs as optional fallback.

用 Ollama 跑在你自己的電腦上,資料完全不會外流。雲端 API 當備援可選用。

07

Obsidian Native

Obsidian 原生

Graph view, Dataview dashboard, Marp slides. Browse your wiki beautifully.

知識圖譜、Dataview 儀表板、Marp 簡報,在 Obsidian 裡漂亮地瀏覽你的 wiki。

08

Feedback Loop

回饋迴圈

Query results file back into the wiki. Knowledge compounds with every question.

查詢結果自動存回 wiki,你的每次提問都在幫知識庫長大。

Five minutes to your first wiki

五分鐘建立你的第一個 Wiki

# Clone and set up
git clone https://github.com/ceparadise168/Pensieve.git
cd Pensieve && bash scripts/bootstrap.sh

# Start Ollama
ollama serve

# Ingest your first source
./tools/kb ingest url "https://example.com/article"

# Compile the wiki
./tools/kb compile --full

# Ask questions
./tools/kb query "What are the key concepts?"

# Generate slides
./tools/kb query "Overview of main themes" --output slides

Recommended models

推薦模型

Local inference on Apple Silicon via Ollama. No GPU required.

在 Apple Silicon Mac 上用 Ollama 跑本地推理,不需要獨立顯卡。

Task任務 Model模型 Size大小 Notes說明
Fast快速 qwen2.5:3b~2 GB Summarization, tagging摘要、標籤
Main主力 gemma4~10 GB Articles, Q&A, linting撰寫、問答、檢查
Main (alt)主力 (替代) qwen3:14b~12 GB Hybrid thinking mode混合思維模式
Complex複雜推理 deepseek-r1:32b~24 GB Chain-of-thought reasoning思維鏈推理
Embed嵌入 nomic-embed-text~0.3 GB Semantic search vectors語意搜尋向量