Workflows2026年5月12日·1 分钟阅读

RagaAI Catalyst — LLM Eval + Tracing SDK

RagaAI Catalyst is a Python SDK for managing LLM projects with evaluation, dataset management, trace/agentic tracing, and prompt/guardrail workflows.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Native · 94/100策略:允许
Agent 入口
任意 MCP/CLI Agent
类型
Cli
安装
Manual
信任
信任等级:Established
入口
pip install ragaai-catalyst
通用 CLI 安装命令
npx tokrepo install 4c25e454-4724-5d35-942e-50bdbcbc1b86

简介

RagaAI Catalyst 是面向 LLM 项目的 Python SDK:覆盖评测、数据集管理、Trace/Agentic tracing、提示词管理与 guardrail 流程,适合把实验变成可复现的工程实践。

  • 适合谁: 需要把评测、追踪与护栏工程化的 LLM 团队
  • 可搭配: Python;按 README 配置 access/secret keys;可嵌入 LLM pipeline
  • 准备时间: 15–45 分钟

实战建议

  • GitHub:16,156 stars · 2,019 forks;最近更新 2026-02-11(GitHub API 验证)。
  • README 用 pip install ragaai-catalyst 安装,并通过 access_key / secret_key / base_url 配置。
  • README 覆盖评测、Trace 管理、Agentic tracing、提示词管理与 guardrail 等模块。

主要内容

更务实的落地方式:

  1. 先做“金标集”:固定一组 prompt 与期望行为,并版本化管理。
  2. 优先接入 tracing:任何回归都能定位到某次变更(prompt/model/tooling)。
  3. 把 guardrail 当测试:先用白/黑名单,再逐步叠加启发式检查与人工审核闸门。
  4. 同步跟踪成本与延迟;质量提升但延迟翻倍的方案未必可用。

让评测跑在每次发布候选上,而不是只做临时实验。

FAQ

它只做评测吗? 答:不是。README 还包含 tracing、提示词管理、guardrail/red-teaming 等模块。

必须要账号凭据吗? 答:需要。README 配置要求 access/secret keys 与 base_url 才能执行操作。

第一步该测什么? 答:先测正确性与安全性,再把延迟与成本纳入同等重要的指标。

🙏

来源与感谢

Source: https://github.com/raga-ai-hub/RagaAI-Catalyst > License: Apache-2.0 > GitHub stars: 16,156 · forks: 3,607

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产