Main
先用 1 个 PDF 跑通并验证引用(
--cite),再扩展到目录监控或 research agent 流程。当你希望助手以“工具调用”而非粘贴上下文的方式工作时,启用 MCP server 模式(stdio)。
把 provider 选择写清楚:embedding 与 QA 模型可替换;为每次数据集运行记录 provider,保证可复现。
Source-backed notes
- README 说明其基于 LanceDB、Pydantic AI 与 Docling,并同时提供 CLI 与 Python API 两种入口。
- README 给出 MCP server 用法:
haiku-rag serve --mcp --stdio,并提供mcpServers的 JSON 配置示例。 - README 列举特性:混合检索、带页码/标题的引用,以及本地优先的嵌入式 LanceDB 存储等。
FAQ
- 必须配置 embedding provider 吗?:是的。README 说明索引/检索前需要配置(Ollama/OpenAI 等)。
- 能通过 MCP 客户端用吗?:可以。运行
serve --mcp --stdio并按示例加入客户端配置。 - 有精简版安装吗?:有。README 提到
haiku.rag-slim,适合想减少依赖时使用。