AI Memory Systems — le guide complet pour chatbots et Agents
La mémoire à long terme reste la plus grande lacune des Agents AI en 2026. Ce guide compare les 11 solutions de mémoire les plus actives — de la mémoire sémantique mem0 aux graphes temporels Graphiti — pour vous aider à choisir, déployer et intégrer une solution dans votre application LLM.
mem0 — Long-term Memory for AI Agents (2026 Guide)
mem0 is an open-source memory layer that extracts, stores, and retrieves user-specific facts across conversations. Drop it in next to your OpenAI or Claude calls and your chatbot stops forgetting who it is talking to.
Zep — Memory Service for LLM Apps with Built-in Summarization
Zep is a dedicated memory service for production LLM apps. It stores sessions, summarizes long histories, extracts facts, and retrieves them with hybrid vector + keyword + graph search.
Letta — Agent Memory OS (formerly MemGPT)
Letta is a stateful agent framework built around MemGPT-style paged memory. Agents explicitly read from and write to their own memory via function calls — the most transparent memory model in production.
Graphiti — Temporal Knowledge Graphs for AI Agents
Graphiti builds a time-aware knowledge graph from streaming data — every edge has a validity window. Agents can query not just "what is true" but "what was true when".
MemGPT — The Paper That Started Paged Agent Memory
MemGPT is the 2023 UC Berkeley paper and open-source project that introduced OS-style memory management to LLM agents. The project lives on today as Letta, but the ideas remain foundational.
Cognitive Weaver — Experimental Agent Memory Architecture
Cognitive Weaver is a research-leaning memory library exploring reflection-based memory consolidation — agents that periodically review and rewrite their own memories, not just store them.
Motorhead — Lightweight Redis-Backed Chat Memory Server
Motorhead is an open-source Rust server that stores chat history in Redis, runs a rolling summarizer, and exposes a tiny REST API. The simplest way to add "remember the last N turns + a summary" to an LLM app.
LangMem — LangChain-Native Memory SDK
LangMem is LangChain’s official memory SDK. It provides memory management tools (semantic, episodic, procedural) that plug into LangGraph agents and LangChain chains.
LlamaIndex Memory — Built-in Memory for RAG Pipelines
LlamaIndex ships first-class memory modules for chat engines and agents — ChatMemoryBuffer, VectorMemory, CompositeMemory — letting you add memory to a RAG pipeline with a single constructor arg.
ChatGPT Memory — Complete Guide (2026)
How ChatGPT memory actually works in 2026: what it stores, what it forgets, how to control it, and when to build your own memory layer instead.
Vector Memory vs Graph Memory — How to Choose (2026)
A practical comparison of the two dominant AI memory architectures: when to use vector embeddings, when to reach for a knowledge graph, and when to combine them.
Trois approches de la mémoire AI
Mémoire sémantique vectorielle. Des outils comme mem0 extraient des faits depuis les conversations, les encodent en embeddings, puis récupèrent les souvenirs les plus pertinents à l'arrivée d'un nouveau Prompt. C'est le pattern dominant en 2024-2025 car il s'appuie sur l'infrastructure vector store existante. Idéal pour la personnalisation de chatbots et les Agents de type CRM. Faiblesse : les relations multi-hop deviennent floues.
Graphes de connaissances temporels. Graphiti construit un graphe d'entités et d'arêtes valides sur des fenêtres temporelles spécifiques — capturant non seulement les faits mais aussi quand ils étaient vrais. Des requêtes du type « que préférait l'utilisateur le mois dernier vs aujourd'hui ? » deviennent triviales. Le bon choix pour des assistants longue durée où les faits évoluent dans le temps.
OS de mémoire natif Agent. Letta (anciennement MemGPT) traite la mémoire comme un OS paginé : une petite mémoire de travail dans le contexte, plus une mémoire d'archive que le LLM charge et décharge via des function calls explicites. Plus de surcharge opérationnelle, mais la seule approche qui donne à l'Agent un contrôle direct sur ce dont il se souvient. Solide pour des Agents autonomes à durée d'exécution illimitée.
Pour la plupart des applications en production, commencez avec mem0 (le plus simple), passez à Zep quand vous avez besoin d'infrastructure managée + résumés de session, et ne montez vers Graphiti ou Letta que lorsque la précision de récupération sur de longs historiques se dégrade vraiment.
Questions fréquentes
Qu'est-ce que la mémoire AI ?+
La mémoire AI désigne les mécanismes qui permettent aux grands modèles de langage de retenir contexte, faits ou préférences utilisateur à travers plusieurs conversations — non pas en empilant tout l'historique dans la context window, mais en extrayant, stockant et récupérant à la demande uniquement les éléments pertinents.
mem0 vs Zep — lequel choisir ?+
mem0 est un SDK open-source avec un cloud managé optionnel — vous contrôlez le stockage. Zep est un service managé avec résumé de session intégré et recherche hybride — plus rapide à mettre en production. Self-host → mem0. Validation rapide → Zep.
Le RAG est-il identique à la mémoire AI ?+
Non. Le RAG récupère des documents externes depuis une base de connaissances. La mémoire AI accumule des faits sur l'utilisateur et la conversation. Les deux se complètent : RAG pour la connaissance métier, mémoire pour la personnalisation.
Mémoire vectorielle vs mémoire graphe ?+
La mémoire vectorielle récupère par similarité sémantique — idéale pour « trouver du contenu pertinent ». La mémoire graphe parcourt les relations entre entités — idéale pour « le raisonnement multi-hop ». Les systèmes en production combinent de plus en plus les deux.