Knowledge2026年5月12日·1 分钟阅读

Awesome Agent Memory — Long-Term Context Index

Awesome Agent Memory curates systems, benchmarks, and papers on long-term context for LLMs/MLLMs—use it to compare approaches and pick tools to try.

Agent 就绪

这个资产可以被 Agent 直接读取和安装

TokRepo 同时提供通用 CLI 命令、安装契约、metadata JSON、按适配器生成的安装计划和原始内容链接,方便 Agent 判断适配度、风险和下一步动作。

Native · 96/100策略:允许
Agent 入口
任意 MCP/CLI Agent
类型
Prompt
安装
Manual
信任
信任等级:Established
入口
README.md
通用 CLI 安装命令
npx tokrepo install be6dfe8e-975e-5ade-9900-72221c32ab40

简介

Awesome Agent Memory 汇总 agent 长期记忆的系统、基准与论文(含可复现开源实现标注与排序),用来快速了解记忆机制、检索策略与评测指标,并跟踪最新实践与新闻,适合做选型清单。

  • 适合谁: 在做 coding agent / 长会话助手“记忆选型”的工程团队
  • 可搭配: GitHub 阅读 + 你的论文/工具栈;把它当索引而不是框架本身
  • 准备时间: 5–15 分钟

实战建议

  • 按 products/tutorials/surveys/benchmarks/papers 分区(见 README 目录)。
  • 先用一个 benchmark 定义门槛(延迟、召回、token 预算),再做方案选择。
  • 维护一份“记忆回归集”:20–50 条历史问题,用于检测记忆策略改动后的漂移。

主要内容

一个更“工程化”的选型流程:

  1. 先定义你的记忆对象:项目事实、用户偏好、工具状态,还是长转写。
  2. 明确三角约束:延迟隐私token 预算
  3. 选一个 baseline(摘要+检索、向量库、图谱/wiki、或混合)。
  4. 用一个 benchmark + 你的业务任务评测,再迭代。

重点是避免“无限上下文”。好的记忆系统是选择性的:只存高信号事实,并能解释为什么这条记忆会被取回。

FAQ

只有向量检索够吗? 答:不一定。对 coding agent 通常需要混合:可继承的事实 + 可搜索的产物 + 可更新的摘要。

最先看哪个指标? 答:召回精度:取回的内容有多大比例真的有用。精度低会最快烧 token。

怎么避免记忆过期? 答:给记忆加时间戳与来源;定期复核关键事实,并清理长期不被使用的条目。

🙏

来源与感谢

Source: https://github.com/TeleAI-UAGI/Awesome-Agent-Memory > License: Apache-2.0 > GitHub stars: 407 · forks: 28

讨论

登录后参与讨论。
还没有评论,来写第一条吧。

相关资产