Scripts2026年5月11日·1 分钟阅读

llm-guard — Secure LLM Inputs & Outputs

Harden LLM apps with a scanner pipeline for prompt injection, PII leakage, toxicity, and unsafe output. Install in minutes and gate requests in code.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Stage only · 29/100Stage only
Agent 入口
任意 MCP/CLI Agent
类型
Script
安装
Single
信任
信任等级:Established
入口
README.md
通用 CLI 安装命令
npx tokrepo install d1888a22-7087-4310-bcaa-dca6663a2e18

简介

用可组合的扫描/过滤流水线加固 LLM 应用:覆盖 prompt injection、PII 泄露、毒性内容与不安全输出;几分钟接入,在代码里做请求拦截、脱敏、审计日志与阈值策略,并支持分场景配置。

  • 适合谁(Best for): 要把 LLM 功能上线、希望在生产前落地安全防护与审计的团队
  • 兼容工具(Works with): Python、任意 LLM 供应商、同步/异步服务(FastAPI、Celery 等)
  • 安装时间(Setup time): 10 分钟

量化信息

  • 接入时间约 10 分钟(pip 安装 + 配一条 scanner chain)
  • GitHub stars + forks(已核验):见「来源与感谢」
  • 常见流水线:3–6 个扫描器(注入 + 机密/PII + 输出安全)

实战要点

推荐落地路径:先用 1 个高信号防护(注入/机密)以监控模式上线,记录命中与误报,再逐步切换到阻断/脱敏。把 scanner 配置做版本管理,并对内部可信工具加入白名单,降低误报。

安全提示: 不要只靠一条 prompt 抗注入;需要在代码里落地防护、日志、测试与白名单机制。

FAQ

Q: 它解决什么问题? A: 它为 LLM 的输入/输出提供显式的扫描与防护层,降低注入、泄露与有害内容风险。

Q: 它是模型还是规则引擎? A: 它是工具箱:把规则/检测器组合成流水线,包裹你现有的 LLM 调用。

Q: 应该在哪一层做防护? A: 建议输入与输出两端都做:模型调用前扫 prompt,返回用户前扫 output。


🙏

来源与感谢

GitHub:https://github.com/protectai/llm-guard Owner avatar:https://avatars.githubusercontent.com/u/102992336?v=4 许可证(SPDX):MIT GitHub stars(已通过 api.github.com/repos/protectai/llm-guard 核验):2,941 GitHub forks(已通过 api.github.com/repos/protectai/llm-guard 核验):391

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产