Configs2026年4月6日·1 分钟阅读

Ollama — Run LLMs Locally with One Command

Run Llama 3, Mistral, Gemma, Phi, and 100+ open-source LLMs locally with a single command. OpenAI-compatible API for seamless integration with AI tools. 120,000+ GitHub stars.

AI
AI Open Source · Community
快速使用

先拿来用,再决定要不要深挖

这里应该同时让用户和 Agent 知道第一步该复制什么、安装什么、落到哪里。

# macOS 安装
brew install ollama

# 运行模型
ollama run llama3.1
# 立即开始对话 — 无需 API Key,无需云端,零费用

简介

Ollama 是一个开源工具,一条命令即可在本地运行 Llama 3、Mistral、Gemma 等 100+ 大语言模型,GitHub 120,000+ stars。无需 API 密钥,无云端费用,数据不离开你的机器。提供 OpenAI 兼容 API,可无缝集成到任何 AI 工具中。适合需要隐私、零延迟和无限免费推理的开发者。


🙏

来源与感谢

Created by Ollama. Licensed under MIT.

ollama — ⭐ 120,000+

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产