简介
Cherry Studio Knowledge Base 让桌面应用把 50+ 种文件格式入库到本地向量索引 —— PDF / Word / Markdown / EPUB / 甚至网页书签。用你选的 LLM(OpenAI / Claude / Ollama 等)离线查询,检索在本地跑。适合不想把文档发到云服务的隐私敏感用户的个人 RAG。兼容 macOS / Windows / Linux 的 Cherry Studio 1.4+。装机时间 5 分钟。
建知识库
- 从 cherry-ai.com 下载 Cherry Studio
- 设置 → 模型 → 加一个 embedding 模型(Ollama 的
nomic-embed-text、OpenAI 的text-embedding-3-small、Voyage AI 等) - 侧边栏 → 知识库 → 新建知识库
- 命名、选 embedding 模型、设 chunk size(默认 1000)
- 拖拽文件或粘贴文件夹
支持的格式
| 类别 | 格式 |
|---|---|
| 文档 | PDF / DOCX / DOC / RTF / ODT / EPUB |
| Office | XLSX / CSV / PPTX |
| 代码 | 所有文本源码(PY / JS / TS / GO 等) |
| 网页 | URL 列表(自动抓取和切分) |
| Markdown | MD / MDX |
| 笔记本 | IPYNB |
| 纯文本 | TXT / LOG |
在聊天里查询知识库
任何聊天里点知识库开关。Cherry Studio 按 query 取 top-k 相关 chunk,带引用前置到 LLM prompt。
配置检索
知识库 → ⚙ 设置:
Chunk size:1000 字符
Chunk overlap:200 字符
Top-K:每查询 6 个 chunk
Rerank:可选(通过 Ollama 跑 BGE Reranker)
阈值:0.6(cosine 相似度下限)同步 vs 仅本地
- 仅本地(默认):向量存储在磁盘
~/Library/Application Support/CherryStudio/... - 同步(可选):把索引推到 S3 兼容存储(R2 / MinIO)做跨设备同步,用只你知道的密码加密
什么时候用 Cherry Studio KB vs 托管 RAG
| Cherry Studio KB | Pinecone Assistant / 类似托管 |
|---|---|
| 个人文档、敏感内容 | 多人团队文档 |
| 离线可用 | 永远要在线 |
| 一次性付应用 + 你的 LLM 成本 | 按查询订阅 |
| 限单设备(或 DIY 同步) | 默认跨设备 |
FAQ
Q: Cherry Studio 免费吗? A: 免费 —— Cherry Studio Apache-2.0 开源。应用免费,你用自己的 LLM API key,只付推理费。本地 Ollama 模型完全免费。
Q: 能处理大 PDF 吗? A: 能 —— 大 PDF 按配置的 chunk size 切。500 页 PDF 用 Ollama 本地 embedding 约 1 分钟出几千个 chunk。检索快(本地 FAISS 风格索引上做 cosine)。
Q: 知识库支持图片吗? A: 目前主要文本。带图 PDF 通过嵌入文本层 OCR;纯图片页拿不到文字。图像检索在规划里,1.4 版还不稳。