简介
Weave 用 @weave.op 给 LLM 应用加 tracing。安装 weave 后调用 weave.init(),即可跟踪 API 调用与校验步骤的输入/输出,便于调试与回放。
- 适合谁(Best for): 在调试 agent 工作流的团队,需要跨工具调用、校验函数与模型调用的端到端 trace
- 兼容工具(Works with): Python、
weave.op装饰器、与 LLM API 调用/自定义校验函数结合(仓库示例) - 安装时间(Setup time): 9 分钟
量化信息
- 安装:
pip install weave(仓库) - 装机约 9 分钟
- GitHub stars(已核验):见「来源与感谢」
实战要点
把可观测性当成产品能力来做时,Weave 的价值最大。把 trace 放在每个边界上:用户输入 → prompt 组装 → 工具调用 → 校验 → 最终输出。用 trace 树回答三个问题:延迟来自哪里、哪一步失败、失败由什么数据触发。
安全提示: 生产环境避免记录敏感信息;在 trace 前先对 prompt 与工具参数做脱敏。
FAQ
Q: 优先 trace 哪些函数? A: 先包最外层的 agent run 和模型调用封装,再逐步把工具调用与校验函数也纳入 tracing。
Q: 只能配 OpenAI 吗? A: 不是。README 表示可 trace 任意函数,包括不同 provider 的 API 调用或开源模型推理。
Q: 怎样让 trace 真有用? A: 记录结构化输入、规范化输出,并重点捕获错误分支;只有能清楚呈现失败,trace 才有价值。