CLI Tools2026年5月14日·1 分钟阅读

vllm-cli — vLLM Model Serving CLI (Python)

vllm-cli is a CLI for serving models with vLLM; verified 493★ with Python 3.9+ and docs for profiles, shortcuts, and `serve --model` workflows.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Native · 94/100策略:允许
Agent 入口
任意 MCP/CLI Agent
类型
Cli
安装
Bundle
信任
信任等级:Established
入口
pip install vllm-cli
通用 CLI 安装命令
npx tokrepo install 40ec8ddf-a76c-5fa0-9d20-f54ab035128d
介绍

vllm-cli 是用 vLLM 启动模型服务的 CLI;已验证 493★,支持 Python 3.9+,并提供 profiles、shortcuts 以及 serve --model 的完整流程说明。

Best for: 既想要交互式 TUI,又需要可脚本化命令来管理 vLLM 模型服务的开发者

Works with: Python 3.9+;vLLM 建议单独安装(README 强调 CUDA/PyTorch 兼容性);可配合 uv/conda

Setup time: 15-30 minutes

Key facts (verified)

  • GitHub:493 stars · 28 forks;最近更新 2026-01-25。
  • 许可证:MIT;作者头像与仓库链接均已通过 GitHub API 复核。
  • README 中可对照的入口命令:pip install vllm-cli

Main

  • 初期用交互模式(vllm-cli)配置 GPU 与 profiles,跑通后用命令行模式做可复现的自动化启动。

  • 用 profiles + shortcuts 固化服务参数:README 提到 serve --shortcut,并提供面向 GPT-OSS 的硬件优化 profiles。

  • 把 vLLM 安装当作独立的兼容性步骤:README 警告 CUDA kernel 必须匹配 PyTorch 版本,而且 vLLM-CLI 默认不安装 vLLM。

Source-backed notes

  • README 标注支持 Python 3.9+,并给出多种安装方式:pip install vllm-clipip install vllm-cli[vllm] 等。
  • README 提供基础用法示例:vllm-cli serve --model openai/gpt-oss-20b
  • README 提醒 vLLM 的二进制兼容性问题,并推荐用 uv/conda 方式保证 PyTorch/CUDA 匹配。

FAQ

  • vllm-cli 会默认帮我装 vLLM 吗?:不会。README 说明默认不会安装 vLLM/PyTorch(除非使用带 extra 的安装方式)。
  • 最先该试哪个服务命令?:README 的基础示例是 vllm-cli serve --model openai/gpt-oss-20b
  • 为什么安装兼容性重要?:README 警告 vLLM 含预编译 CUDA kernels,必须与 PyTorch 版本匹配。
🙏

来源与感谢

Source: https://github.com/Chen-zexi/vllm-cli > License: MIT > GitHub stars: 493 · forks: 28

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产