简介
Cherry Studio 自定义模型支持让你把任何 OpenAI 兼容端点加为模型 —— 你的 LiteLLM proxy、Ollama 实例、OpenRouter、DeepSeek 都行。多个模型同时存在,对话中途切换,或并排对比。适合想用一个界面覆盖所有 LLM provider(包括本地模型)的高阶用户。兼容 Cherry Studio 1.x 和任何 OpenAI 兼容端点。每个模型装机时间 2 分钟。
加自定义 provider
设置 → 模型 → ➕ 添加 Provider:
Provider 类型:OpenAI Compatible
名字:My LiteLLM Proxy
Base URL:https://litellm.acme.internal/v1
API Key:sk-team-acme-xyzCherry Studio 通过 /v1/models 拉模型列表,选要暴露的。
常见 provider
| Provider | Base URL | 模型 |
|---|---|---|
| OpenRouter | https://openrouter.ai/api/v1 |
300+ |
| Together AI | https://api.together.xyz/v1 |
200+ |
| Groq | https://api.groq.com/openai/v1 |
快的 Llama / Mixtral |
| DeepSeek | https://api.deepseek.com/v1 |
DeepSeek-V3 / R1 / Coder |
| Ollama(本地) | http://localhost:11434/v1 |
你拉过的任何模型 |
| LM Studio(本地) | http://localhost:1234/v1 |
GGUF 模型 |
| 你的 LiteLLM Proxy | https://your-proxy.com/v1 |
它路由的任何模型 |
并排对比
在聊天里点模型选择器 → ⊕ 添加模型。两个(或多个)模型同时响应同一 prompt。给某个工作负载挑模型有用。
对话中途切换
点任何消息上的模型名 → 切下一条消息用的模型。「难推理用 Sonnet,样板回复切 Haiku」很合适。
配置持久化
Provider 配置存在 ~/Library/Application Support/CherryStudio/config.json(用 OS keychain 加密)。想跨设备就用可选的 Cherry Studio Sync(用你的密码加密)。
FAQ
Q: 能直接配 Anthropic Claude 吗? A: 能 —— Cherry Studio 支持 Anthropic 原生 API 作为内置 provider 类型(不是 OpenAI 兼容)。设置 → 模型 → ➕ 添加 Provider → Anthropic。流程跟其他一样。
Q: 能用自托管 LLM 吗? A: 能 —— 指向本地 Ollama(端口 11434)或 LM Studio(端口 1234)做完全本地推理。OpenAI 兼容适配器对两者都处理工具使用和流式。
Q: API key 怎么存? A: 只本地存。Cherry Studio 用 OS keychain(macOS Keychain / Windows Credential Manager / Linux Secret Service)。除非启用 Cherry Studio Sync(加密)否则 key 不离开你的设备。