Frameworks Multi-Agent
CAMEL, LangGraph, DeepAgents, GPT Researcher — frameworks pour orchestrer des équipes d'agents en production.
Ce que contient ce pack
Ce pack rassemble les sept frameworks multi-agent que les équipes livrent réellement en production en 2026, pas les démos qui font bien sur Twitter et explosent sous charge. Quatre sont des frameworks phares, trois sont des templates research/role-play qui les enveloppent.
| # | Ressource | Type | Idéal pour |
|---|---|---|---|
| 1 | LangGraph | framework à état | Orchestration graphe production avec checkpointing |
| 2 | CAMEL | framework role-play | Dialogue agent-à-agent, niveau académique |
| 3 | DeepAgents | framework research | Planification long-horizon + spawn de sub-agents |
| 4 | GPT Researcher | agent appliqué | Sujet en entrée, rapport de recherche en sortie |
| 5 | Researcher swarm | template | Rôles CAMEL pour research parallèle |
| 6 | Paire critique-acteur | template | Un agent agit, l'autre critique — correction d'erreurs |
| 7 | Planner hiérarchique | template | Pattern manager-spawns-workers avec budget |
Pourquoi ce pack importe
Un agent seul est une boucle de chat. Multi-agent est un système — et comme tout système, il a besoin de structure (machines à états, files, retries) avant de survivre à une vraie charge. Les quatre frameworks ici ont choisi les structures qui marchent. Les trois templates vous montrent comment les câbler pour les cas d'usage les plus courants.
Chaque framework choisit une abstraction différente :
- LangGraph traite l'orchestration comme un graphe d'états. Vous déclarez des nœuds (agents/outils) et des arêtes (quand transitionner), et LangGraph gère le checkpointing pour qu'un run de 30 minutes puisse reprendre après un crash. Le plus proche d'un standard par défaut en production.
- CAMEL se concentre sur le dialogue agent-à-agent avec rôles explicites. Deux agents jouent "utilisateur" et "assistant" ou "lead research" et "rédacteur" et conversent jusqu'à atteindre un but. Fort en reproductibilité et benchmarks académiques.
- DeepAgents est construit pour les tâches longue durée. L'agent top planifie, délègue des sous-tâches à des sub-agents spawneés, chacun avec son propre context window. Conçu pour éviter le mode d'échec "un seul contexte géant".
- GPT Researcher est le cas appliqué. Vous lui donnez une question de recherche, il fait tourner un swarm de sub-agents pour réunir les preuves et produit un rapport long avec citations. Utile à la fois comme outil et comme architecture de référence.
Installer en une commande
# Installe le pack entier
tokrepo install pack/multi-agent-frameworks
# Ou un par un
tokrepo install langgraph
tokrepo install camel
tokrepo install deepagents
tokrepo install gpt-researcher
Le TokRepo CLI installe l'adaptateur de chaque framework dans votre outil IA — subagents Claude Code dans .claude/agents/, règles Cursor dans .cursor/rules/, AGENTS.md pour Codex CLI. Lancez pip / npm pour les librairies sous-jacentes ; TokRepo câble les prompts pour que votre CLI sache quand les invoquer.
Pièges courants
- Ne sautez pas le budget. Les runs multi-agent peuvent fan-out exponentiellement — un planner spawneant 5 workers chacun spawneant 5 sous-tâches brûle 25× les tokens. Plafonnez toujours la profondeur et le max-spawn. DeepAgents l'intègre ; avec LangGraph et CAMEL c'est à vous de le régler.
- Ne partagez pas un client LLM entre threads naïvement. La plupart des SDK ne sont pas pleinement thread-safe en haute concurrence. Utilisez des pools au niveau process ou de l'async avec concurrence bornée (asyncio.Semaphore(8)).
- Tracez tout. Débugger du multi-agent sans traces est impossible. Appariez ce pack avec LLM Observability — Langfuse et AgentOps ont des intégrations first-class LangGraph.
- Attention au role drift. En dialogue style CAMEL, les agents oublient parfois qui ils sont vers le tour 8-10. Ajoutez un rappel system tous les N tours ou épinglez le rôle dans chaque message.
- Multi-agent ≠ mieux. Essayez un seul Claude Sonnet 4.5 avec extended thinking avant de partir sur un système multi-agent. Le blog Anthropic 2025 sur la research multi-agent a trouvé que 60% des tâches lancées sur du multi-agent iraient très bien avec un agent + tools.
Quand ce pack ne suffit pas
Le multi-agent brille sur les tâches avec sous-problèmes parallélisables (research, code review, génération de contenu sur plusieurs sujets). Il perd sur :
- Tâches séquentielles fortement stateful. Refactorer un codebase end-to-end est le boulot d'un agent — le découper entre plusieurs crée plus d'overhead de coordination que d'économies.
- Workflows sensibles à la latence. Chaque saut entre agents ajoute un round-trip. Sous SLA 5s, restez single-agent.
- Workflows sensibles au coût. Un run multi-agent coûte typiquement 3-10× un run single-agent pour la même tâche. Ça vaut le coup pour la qualité sur des problèmes durs ; pas pour "résume cet email".
La bonne façon d'adopter ce pack : commencez par GPT Researcher comme exemple fini le plus simple, puis passez à LangGraph ou DeepAgents quand vous avez besoin d'écrire votre propre orchestration.
7 ressources prêtes à installer
Questions fréquentes
LangGraph est-il gratuit ?
Oui, LangGraph est open-source sous MIT et vous payez seulement les tokens LLM. Il y a un LangGraph Cloud payant pour le deploy managé avec checkpointing et traces, mais la librairie OSS est complète. CAMEL, DeepAgents et GPT Researcher sont aussi OSS — aucun tier payant n'est requis pour livrer.
Est-ce que ça marche avec Cursor ou Codex CLI ?
Les frameworks sont des librairies Python au niveau langage, pas spécifiques Claude Code. Tout CLI agent qui exécute des outils Python peut les piloter. Le TokRepo CLI installe le bon câblage — pour Codex CLI il livre des instructions AGENTS.md expliquant quand invoquer le framework, pour Cursor il ajoute des règles. L'installation Python sous-jacente est inchangée.
Comment LangGraph se compare-t-il à CAMEL ?
LangGraph est structure-first : vous dessinez une machine à états et les agents y prennent place. CAMEL est dialogue-first : vous assignez des rôles et laissez les agents converser. LangGraph gagne sur la fiabilité production et le checkpointing ; CAMEL gagne pour la research, les simulations et tout cas où la conversation est l'artefact. Beaucoup de setups production utilisent LangGraph pour orchestrer et appellent CAMEL pour des tâches de dialogue spécifiques.
Quelle est la différence avec le pack Memory Layer ?
La mémoire concerne ce qu'un agent retient entre sessions. Le multi-agent concerne comment plusieurs agents coordonnent dans une tâche. C'est orthogonal : un système multi-agent a souvent besoin d'une couche mémoire partagée (Mem0/Zep) pour que les workers ne redécouvrent pas des faits que le planner connaissait. Nous recommandons d'installer les deux packs si vous construisez quelque chose de sérieux.
Quand ne PAS utiliser un framework multi-agent ?
Quand la tâche est séquentielle et stateful (refactor ce fichier), sensible à la latence (UI chat sous 3s), ou assez simple pour un seul appel Claude/GPT. Le propre blog multi-agent d'Anthropic note que single-agent + extended thinking bat la plupart des setups multi-agent côté coût. Tirez sur le multi-agent quand la tâche parallélise naturellement (research multi-source) ou exige des rôles d'experts distincts.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs