Ollama 模型库指南
Ollama 提供 500+ 开源 AI 模型,一键本地部署。本指南覆盖编码、对话、推理最佳模型选择。
一句话总结:Ollama 模型库最佳选择指南,编码选 Qwen2.5-Coder,对话选 Llama 3.1,推理选 Phi-3,500+ 模型本地运行。
适合人群:选择本地 AI 模型的开发者。
最佳模型
编码:Qwen2.5-Coder 7B/32B
对话:Llama 3.1 8B/70B
推理:Qwen2.5 7B, Phi-3 14B
硬件要求
7B 模型需 8GB 内存,70B 需 64GB。
常见问题
Q: 哪个最接近 GPT-4? A: Llama 3.1 70B 或 Qwen2.5 72B。
Q: 能配合 Claude Code? A: 可以,Ollama 本地服务器作为自定义端点。
来源与致谢
ollama.com/library — 500+ 模型, 120k+ stars