Mémoire pour Agents
Mem0, Zep, Cognee et les patterns pour rendre les agents persistants — sans tout entasser dans le prompt.
Ce que contient ce pack
Ce pack rassemble les sept ressources de couche mémoire qui apparaissent dans chaque agent ayant besoin de se souvenir de choses entre sessions sans les recoller dans le prompt à chaque fois. Trois sont les librairies canoniques. Quatre sont des templates de patterns qui les enveloppent — patterns qu'Anthropic et OpenAI sortent dans leurs guides d'agents long-running.
| # | Ressource | Type | Ce qu'elle vous donne |
|---|---|---|---|
| 1 | Mem0 | librairie | Auto-extraction et update des faits utilisateur, API drop-in |
| 2 | Zep | service | Graphe de connaissances temporel, mémoire long terme |
| 3 | Cognee | librairie | Pipeline hybride graphe + vecteur |
| 4 | Pattern résumé épisodique | template | Compresse de longues sessions en mémoires résumé |
| 5 | Bloc-notes working-memory | template | État inter-étapes sans gonfler le prompt |
| 6 | Extracteur de faits utilisateur | template | Tire les faits stables du chat vers le store |
| 7 | Recall cross-session | template | "Qu'avons-nous décidé la semaine dernière ?" |
Pourquoi c'est important
La config par défaut de Claude / GPT-4 / Gemini a zéro mémoire. Chaque conversation repart à zéro. La plupart des apps simulent la mémoire en entassant les tours précédents dans le system prompt — ça marche un temps, puis votre context window explose, votre facture triple et le modèle perd le fil. Les couches mémoire résolvent ça en stockant les faits hors du prompt et en n'injectant que les pertinents par tour.
Les trois librairies font des paris différents :
- Mem0 est la plus facile. Un appel
mem0.add(messages, user_id=...)et la librairie extrait ce qui mérite d'être retenu. Mieux pour apps style chatbot avec identité claire. - Zep est l'option production. Tourne en service, vous donne un graphe de connaissances temporel (mémoires avec timestamps et relations), supporte le multi-tenant. Mieux quand vous avez besoin d'audit trails ou de mémoire partagée dans une organisation.
- Cognee est le pari graph-native. Modélise la mémoire comme graphe de connaissances dès le jour un — utile si votre domaine est research, code, ou tout ce qui a des relations d'entités fortes.
Les quatre patterns ne sont pas des librairies — ce sont des templates de prompt et de petits adaptateurs qui marchent avec n'importe laquelle des trois. C'est la différence entre "j'ai installé Mem0" et "la mémoire fonctionne réellement dans mon app".
Installer en une commande
# Installe le pack entier
tokrepo install pack/agent-memory-layer
# Ou installez une librairie à la fois
tokrepo install mem0
tokrepo install zep
tokrepo install cognee
Le TokRepo CLI normalise le placement des fichiers : subagents Claude Code dans .claude/agents/, règles Cursor dans .cursor/rules/, AGENTS.md pour Codex CLI. Les installations de librairies sont pip/npm — TokRepo se contente de les câbler dans la config de votre outil IA pour que l'agent sache que la couche mémoire existe.
Pièges courants
- Ne stockez pas tout. Le coût mémoire scale avec ce que vous écrivez, pas ce que vous récupérez. Utilisez un extracteur de faits (pattern #6) pour filtrer — seuls les faits durables sur l'utilisateur/projet vont en mémoire long terme.
- Ne sautez pas le biais de récence. Le recall vectoriel pur tire des mémoires sémantiquement similaires mais rances. Le graphe temporel de Zep et la mise à jour in-place de Mem0 résolvent ça ; si vous le faites maison, pondérez par récence sinon vous récupérerez sans cesse du contexte de 6 mois.
- Ne partagez pas les user IDs entre tenants. Les trois librairies supportent les namespaces par utilisateur. Utilisez-les. La fuite mémoire entre utilisateurs est un incident bien pire que pas de mémoire du tout.
- Budgétez les tokens du recall. Même avec une couche mémoire, vous pouvez exploser votre context window avec
top_k=50. Démarrez àtop_k=5et montez seulement si le recall manque. - Réconciliez les conflits. Si l'utilisateur dit "je suis végétarien" en mars et "je suis végan" en mai, vous avez besoin d'une stratégie de mise à jour. Mem0 le gère seul ; Zep vous donne la surface de conflit ; Cognee vous laisse l'écrire.
Idées reçues courantes
"RAG et mémoire c'est pareil." Non. RAG récupère depuis un corpus statique (docs, codebase). La mémoire écrit de nouvelles entrées selon ce que l'utilisateur/agent a dit et les récupère plus tard. RAG est en lecture seule ; la mémoire est lecture-écriture. Les patterns du pack rag-pipelines diffèrent volontairement de ce pack.
"Je peux juste utiliser l'historique de conversation." Pour une session de 5 tours, oui. Pour une app où le même utilisateur revient la semaine prochaine, non — il faudrait nourrir tous les tours précédents dans le prompt à jamais. La mémoire extrait les faits et jette le chat.
"Mem0 vs Zep est un choix difficile." La plupart des équipes commencent par Mem0 car c'est 5 minutes de setup, puis passent à Zep quand elles ont besoin de multi-tenant ou d'audit. Les deux sont assez similaires pour que la migration soit un week-end, pas un trimestre.
7 ressources prêtes à installer
Questions fréquentes
Mem0 est-il gratuit ?
La librairie OSS Mem0 est sous licence MIT et gratuite à auto-héberger. Ils ont aussi une option cloud managée avec pricing à l'usage si vous ne voulez pas faire tourner l'embedding/vector store vous-même. Zep a le même modèle OSS + cloud. Cognee est entièrement OSS sans option managée à mi-2026 — vous le faites tourner vous-même.
Est-ce que ça marchera dans Cursor / Codex CLI / Windsurf ?
Les librairies sont au niveau langage (Python / Node) donc elles marchent avec n'importe quel framework agent, pas seulement Claude Code. Le TokRepo CLI installe les bons fichiers de config par outil. Les utilisateurs Codex CLI devraient apparier la couche mémoire avec des instructions AGENTS.md ; les utilisateurs Cursor l'embarquent dans le set de règles.
Comment Mem0 se compare-t-il à Zep ?
Mem0 est library-first — vous importez et appelez .add()/.search() inline. Zep est service-first — vous lancez un serveur (Docker), il possède le graphe, votre app appelle l'API. Mem0 gagne sur le time-to-first-memory ; Zep gagne sur le multi-tenant, l'audit et la modélisation explicite des relations. Mem0 pour prototypes, Zep quand vous avez du support ops.
Quelle est la différence avec le pack RAG Pipelines ?
RAG récupère depuis un corpus fixe (vos docs, votre codebase). La mémoire écrit de nouveaux faits pendant que l'agent tourne et les récupère plus tard. RAG est lecture seule ; la mémoire est lecture-écriture et accumule. La plupart des agents en production ont besoin des deux : RAG pour la connaissance statique, mémoire pour le spécifique-utilisateur.
Quand ne PAS ajouter une couche mémoire ?
Quand les sessions sont stateless et courtes — les tâches one-shot comme 'résume ce PDF' n'en bénéficient pas et la couche ajoute de la latence. Sautez aussi pour le lookup purement factuel (utilisez RAG). Les couches mémoire valent leur coût quand le même utilisateur revient, que l'agent est multi-étapes, ou les deux.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs