TOKREPO · ARSENAL
Rafraîchi

Mémoire pour Agents

Mem0, Zep, Cognee et les patterns pour rendre les agents persistants — sans tout entasser dans le prompt.

7 ressources

Ce que contient ce pack

Ce pack rassemble les sept ressources de couche mémoire qui apparaissent dans chaque agent ayant besoin de se souvenir de choses entre sessions sans les recoller dans le prompt à chaque fois. Trois sont les librairies canoniques. Quatre sont des templates de patterns qui les enveloppent — patterns qu'Anthropic et OpenAI sortent dans leurs guides d'agents long-running.

# Ressource Type Ce qu'elle vous donne
1 Mem0 librairie Auto-extraction et update des faits utilisateur, API drop-in
2 Zep service Graphe de connaissances temporel, mémoire long terme
3 Cognee librairie Pipeline hybride graphe + vecteur
4 Pattern résumé épisodique template Compresse de longues sessions en mémoires résumé
5 Bloc-notes working-memory template État inter-étapes sans gonfler le prompt
6 Extracteur de faits utilisateur template Tire les faits stables du chat vers le store
7 Recall cross-session template "Qu'avons-nous décidé la semaine dernière ?"

Pourquoi c'est important

La config par défaut de Claude / GPT-4 / Gemini a zéro mémoire. Chaque conversation repart à zéro. La plupart des apps simulent la mémoire en entassant les tours précédents dans le system prompt — ça marche un temps, puis votre context window explose, votre facture triple et le modèle perd le fil. Les couches mémoire résolvent ça en stockant les faits hors du prompt et en n'injectant que les pertinents par tour.

Les trois librairies font des paris différents :

  • Mem0 est la plus facile. Un appel mem0.add(messages, user_id=...) et la librairie extrait ce qui mérite d'être retenu. Mieux pour apps style chatbot avec identité claire.
  • Zep est l'option production. Tourne en service, vous donne un graphe de connaissances temporel (mémoires avec timestamps et relations), supporte le multi-tenant. Mieux quand vous avez besoin d'audit trails ou de mémoire partagée dans une organisation.
  • Cognee est le pari graph-native. Modélise la mémoire comme graphe de connaissances dès le jour un — utile si votre domaine est research, code, ou tout ce qui a des relations d'entités fortes.

Les quatre patterns ne sont pas des librairies — ce sont des templates de prompt et de petits adaptateurs qui marchent avec n'importe laquelle des trois. C'est la différence entre "j'ai installé Mem0" et "la mémoire fonctionne réellement dans mon app".

Installer en une commande

# Installe le pack entier
tokrepo install pack/agent-memory-layer

# Ou installez une librairie à la fois
tokrepo install mem0
tokrepo install zep
tokrepo install cognee

Le TokRepo CLI normalise le placement des fichiers : subagents Claude Code dans .claude/agents/, règles Cursor dans .cursor/rules/, AGENTS.md pour Codex CLI. Les installations de librairies sont pip/npm — TokRepo se contente de les câbler dans la config de votre outil IA pour que l'agent sache que la couche mémoire existe.

Pièges courants

  • Ne stockez pas tout. Le coût mémoire scale avec ce que vous écrivez, pas ce que vous récupérez. Utilisez un extracteur de faits (pattern #6) pour filtrer — seuls les faits durables sur l'utilisateur/projet vont en mémoire long terme.
  • Ne sautez pas le biais de récence. Le recall vectoriel pur tire des mémoires sémantiquement similaires mais rances. Le graphe temporel de Zep et la mise à jour in-place de Mem0 résolvent ça ; si vous le faites maison, pondérez par récence sinon vous récupérerez sans cesse du contexte de 6 mois.
  • Ne partagez pas les user IDs entre tenants. Les trois librairies supportent les namespaces par utilisateur. Utilisez-les. La fuite mémoire entre utilisateurs est un incident bien pire que pas de mémoire du tout.
  • Budgétez les tokens du recall. Même avec une couche mémoire, vous pouvez exploser votre context window avec top_k=50. Démarrez à top_k=5 et montez seulement si le recall manque.
  • Réconciliez les conflits. Si l'utilisateur dit "je suis végétarien" en mars et "je suis végan" en mai, vous avez besoin d'une stratégie de mise à jour. Mem0 le gère seul ; Zep vous donne la surface de conflit ; Cognee vous laisse l'écrire.

Idées reçues courantes

"RAG et mémoire c'est pareil." Non. RAG récupère depuis un corpus statique (docs, codebase). La mémoire écrit de nouvelles entrées selon ce que l'utilisateur/agent a dit et les récupère plus tard. RAG est en lecture seule ; la mémoire est lecture-écriture. Les patterns du pack rag-pipelines diffèrent volontairement de ce pack.

"Je peux juste utiliser l'historique de conversation." Pour une session de 5 tours, oui. Pour une app où le même utilisateur revient la semaine prochaine, non — il faudrait nourrir tous les tours précédents dans le prompt à jamais. La mémoire extrait les faits et jette le chat.

"Mem0 vs Zep est un choix difficile." La plupart des équipes commencent par Mem0 car c'est 5 minutes de setup, puis passent à Zep quand elles ont besoin de multi-tenant ou d'audit. Les deux sont assez similaires pour que la migration soit un week-end, pas un trimestre.

INSTALLER · UNE COMMANDE
$ tokrepo install pack/agent-memory-layer
passez-la à votre agent — ou collez-la dans votre terminal
Ce qu'il contient

7 ressources prêtes à installer

Skill#01
Mem0 — Memory Layer for AI Applications

Add persistent, personalized memory to AI agents and assistants. Mem0 stores user preferences, past interactions, and learned context across sessions.

by Mem0·278 views
$ tokrepo install mem0-memory-layer-ai-applications-96da1f40
MCP#02
Codebase Memory MCP — Code Intelligence for AI Agents

High-performance code intelligence MCP server. Indexes repos in milliseconds via tree-sitter AST, supports 66 languages, sub-ms graph queries. MIT, 1,300+ stars.

by MCP Hub·121 views
$ tokrepo install codebase-memory-mcp-code-intelligence-ai-agents-a3fe5165
MCP#03
Memory MCP — Persistent AI Agent Knowledge Graph

MCP server that gives AI agents persistent memory using a local knowledge graph. Stores entities, relationships, and observations across sessions for Claude Code.

by MCP Hub·82 views
$ tokrepo install memory-mcp-persistent-ai-agent-knowledge-graph-554c4dc2
Skill#04
Zep — Long-Term Memory for AI Agents and Assistants

Production memory layer for AI assistants. Zep stores conversation history, extracts facts, builds knowledge graphs, and provides temporal-aware retrieval for LLMs.

by MCP Hub·79 views
$ tokrepo install zep-long-term-memory-ai-agents-assistants-ffde39a9
Skill#05
Cognee — Memory Engine for AI Agents

Cognee adds persistent structured memory to any AI agent in 6 lines of code. 14.8K+ stars. Knowledge graphs, vector stores, LLM integration. Apache 2.0.

by Skill Factory·82 views
$ tokrepo install cognee-memory-engine-ai-agents-b6ad223f
Prompt#06
AI Agent Memory Patterns — Build Agents That Remember

Design patterns for adding persistent memory to AI agents. Covers conversation memory, entity extraction, knowledge graphs, tiered memory, and memory management strategies.

by Agent Toolkit·124 views
$ tokrepo install ai-agent-memory-patterns-build-agents-remember-b52189f9
Script#07
Mem0 — Memory Layer for AI Agents

Add persistent, personalized memory to any AI agent. Learns user preferences, adapts context, reduces tokens. 51K+ stars, used by 100K+ devs.

by Mem0·137 views
$ tokrepo install mem0-memory-layer-ai-agents-b61fca8c
FAQ

Questions fréquentes

Mem0 est-il gratuit ?

La librairie OSS Mem0 est sous licence MIT et gratuite à auto-héberger. Ils ont aussi une option cloud managée avec pricing à l'usage si vous ne voulez pas faire tourner l'embedding/vector store vous-même. Zep a le même modèle OSS + cloud. Cognee est entièrement OSS sans option managée à mi-2026 — vous le faites tourner vous-même.

Est-ce que ça marchera dans Cursor / Codex CLI / Windsurf ?

Les librairies sont au niveau langage (Python / Node) donc elles marchent avec n'importe quel framework agent, pas seulement Claude Code. Le TokRepo CLI installe les bons fichiers de config par outil. Les utilisateurs Codex CLI devraient apparier la couche mémoire avec des instructions AGENTS.md ; les utilisateurs Cursor l'embarquent dans le set de règles.

Comment Mem0 se compare-t-il à Zep ?

Mem0 est library-first — vous importez et appelez .add()/.search() inline. Zep est service-first — vous lancez un serveur (Docker), il possède le graphe, votre app appelle l'API. Mem0 gagne sur le time-to-first-memory ; Zep gagne sur le multi-tenant, l'audit et la modélisation explicite des relations. Mem0 pour prototypes, Zep quand vous avez du support ops.

Quelle est la différence avec le pack RAG Pipelines ?

RAG récupère depuis un corpus fixe (vos docs, votre codebase). La mémoire écrit de nouveaux faits pendant que l'agent tourne et les récupère plus tard. RAG est lecture seule ; la mémoire est lecture-écriture et accumule. La plupart des agents en production ont besoin des deux : RAG pour la connaissance statique, mémoire pour le spécifique-utilisateur.

Quand ne PAS ajouter une couche mémoire ?

Quand les sessions sont stateless et courtes — les tâches one-shot comme 'résume ce PDF' n'en bénéficient pas et la couche ajoute de la latence. Sautez aussi pour le lookup purement factuel (utilisez RAG). Les couches mémoire valent leur coût quand le même utilisateur revient, que l'agent est multi-étapes, ou les deux.

PLUS DANS L'ARSENAL

12 packs · 80+ ressources sélectionnées

Découvrez tous les packs curatés sur la page d'accueil

Retour à tous les packs