CLI Tools2026年5月11日·1 分钟阅读

Olive — Optimize Models for Faster Inference

Olive automates model optimization via a CLI so teams can reduce latency and cost (e.g., quantization/ONNX paths) before serving models in apps or agents.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Stage only · 29/100Stage only
Agent 入口
任意 MCP/CLI Agent
类型
CLI Tool
安装
Single
信任
信任等级:Established
入口
README.md
通用 CLI 安装命令
npx tokrepo install 46ee49fb-a2a1-4d36-af94-e6fb4b7fa220

简介

Olive 是微软开源的模型优化 CLI:自动化量化、ONNX 与硬件相关优化路径,帮助团队在接入应用或 Agent 前降低延迟与推理成本,并用配置/脚本确保结果可复现、可对比,便于落地到流水线。

  • 适合谁: 需要把模型推理做“可复现优化流水线”的团队,偏好 CLI + 配置驱动
  • 可搭配: Python 环境 + Olive CLI;可与模型下载流程及硬件相关优化路径结合
  • 准备时间: 30 分钟

实战建议

  • 准备时间约 30 分钟(建环境 + 安装 + 跑一次 optimize)
  • README 提供可量化参数:例如 --precision int4(精度/速度/成本权衡)
  • GitHub stars / forks(已核验):见「来源与感谢」

在 Agent 产品里,模型优化往往是最便宜的“体验提升”:不改提示词与工具链,也能通过降延迟让多步规划更可用。

实用流程:

  1. 明确目标指标(延迟/显存/成本)与目标硬件。
  2. 用 Olive 的配置或 CLI 脚本跑优化流程。
  3. 在真实的 agent loop 里做对比评测(不要只看孤立 benchmark)。

把优化产物当作构建输出:版本化并记录精确命令/配置,才能真正可复现。

FAQ

Olive 只做 ONNX 吗? 答:README 强调了 ONNX 等路径,但整体定位是可配置的模型优化工具箱与流水线。

怎么判断对 Agent 真有帮助? 答:用优化后的模型跑端到端 agent 流程,对比延迟与成功率。

哪些内容建议纳入版本管理? 答:Olive 的配置/命令、基准测试记录,以及产物的路径/哈希。

🙏

来源与感谢

Source: https://github.com/microsoft/Olive > License: MIT > GitHub stars: 2,312 · forks: 295

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产