Scripts2026年4月8日·1 分钟阅读

Llamafile — Run AI Models as Single Executables

Package and run LLMs as single portable executables. Llamafile bundles model weights with llama.cpp into one file that runs on any OS without installation.

AI
AI Open Source · Community
快速使用

先拿来用,再决定要不要深挖

这里应该同时让用户和 Agent 知道第一步该复制什么、安装什么、落到哪里。

curl -LO <model>.llamafile && chmod +x && ./

下载一个文件,直接运行 AI 模型,无需安装任何依赖。

什么是 Llamafile?

Llamafile 将 LLM 打包为单个可执行文件,任何操作系统直接运行。Mozilla 出品,基于 llama.cpp + Cosmopolitan Libc。

一句话总结:将 LLM 打包为单文件可执行程序,跨平台零依赖运行,内置 Web UI 和 OpenAI 兼容 API,Mozilla 出品,22k+ stars。

适合人群:需要零配置本地 AI 推理的开发者。

核心功能

1. 零依赖

一个文件,无需 Python/Docker/包管理器。

2. 跨平台

同一文件在 Windows/macOS/Linux 运行。

3. GPU 加速

自动检测 CUDA/Metal。

常见问题

Q: 文件多大? A: 等于模型权重大小,7B Q4 约 4GB。

Q: 谁维护? A: Mozilla 创新团队。

来源与致谢

Mozilla-Ocho/llamafile — 22k+ stars, Apache 2.0

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产