什么是 Guardrails AI?
Guardrails AI 为 LLM 输出添加验证、安全检查和格式约束。50+ 预置验证器覆盖幻觉检测、PII 过滤、毒性检查和格式验证。
一句话总结:LLM 输出验证框架,50+ 验证器(幻觉/PII/毒性/格式),验证失败自动重试或修正,支持 Claude/GPT,生产就绪,4k+ stars。
适合人群:将 LLM 部署到生产环境需要输出安全的团队。
核心功能
1. 50+ 验证器
安全、隐私、准确性、格式、质量、代码类。
2. 自动重试
验证失败自动带纠正提示重试。
3. 结构化输出
Pydantic 模型定义输出格式。
4. 生产部署
Guardrails Server API 服务。
常见问题
Q: 支持 Claude?
A: 支持,model="anthropic/claude-sonnet-4-20250514"。
Q: 验证失败怎么办? A: 可配置:过滤、修正、重试或报错。
来源与致谢
guardrails-ai/guardrails — 4k+ stars, Apache 2.0