Main
先用 wrap 模式:
headroom wrap claude|codex|cursor不改业务代码也能立刻省 token。需要语言无关就用 proxy:把任意 OpenAI 兼容客户端指向本地 proxy,数据留在本机(README)。
把 CCR 当成可逆压缩:README 强调原文可按需取回,因此可以更激进地压缩同时保留可审计性。
量化收益:记录压缩前后 token(README demo 给出 10,144 → 1,260),只在高频场景里调参。
Source-backed notes
- README 列出三种使用模式:库、proxy(
headroom proxy)与 agent wrap(headroom wrap ...)。 - README 表示提供 MCP server,并包含
headroom_compress/headroom_retrieve/headroom_stats等工具。 - README demo 给出 token 压缩例子(10,144 → 1,260),并强调 CCR 为可逆压缩。
FAQ
- 需要改应用吗?:不一定;先用
headroom wrap ...或把headroom proxy当作 drop-in 入口即可。 - 压缩可逆吗?:README 表示 CCR 会保留原文,必要时 agent 可按需取回。
- MCP 客户端怎么用?:启用 Headroom 的 MCP server(README 提到 MCP-native 入口),然后调用 compress/retrieve/stats 工具。