TOKREPO · ARSENAL
Stable

Frameworks Multi-Agent

CAMEL, LangGraph, DeepAgents, GPT Researcher — frameworks pour orchestrer des équipes d'agents en production.

7 ressources

Ce que contient ce pack

Ce pack rassemble les sept frameworks multi-agent que les équipes livrent réellement en production en 2026, pas les démos qui font bien sur Twitter et explosent sous charge. Quatre sont des frameworks phares, trois sont des templates research/role-play qui les enveloppent.

# Ressource Type Idéal pour
1 LangGraph framework à état Orchestration graphe production avec checkpointing
2 CAMEL framework role-play Dialogue agent-à-agent, niveau académique
3 DeepAgents framework research Planification long-horizon + spawn de sub-agents
4 GPT Researcher agent appliqué Sujet en entrée, rapport de recherche en sortie
5 Researcher swarm template Rôles CAMEL pour research parallèle
6 Paire critique-acteur template Un agent agit, l'autre critique — correction d'erreurs
7 Planner hiérarchique template Pattern manager-spawns-workers avec budget

Pourquoi ce pack importe

Un agent seul est une boucle de chat. Multi-agent est un système — et comme tout système, il a besoin de structure (machines à états, files, retries) avant de survivre à une vraie charge. Les quatre frameworks ici ont choisi les structures qui marchent. Les trois templates vous montrent comment les câbler pour les cas d'usage les plus courants.

Chaque framework choisit une abstraction différente :

  • LangGraph traite l'orchestration comme un graphe d'états. Vous déclarez des nœuds (agents/outils) et des arêtes (quand transitionner), et LangGraph gère le checkpointing pour qu'un run de 30 minutes puisse reprendre après un crash. Le plus proche d'un standard par défaut en production.
  • CAMEL se concentre sur le dialogue agent-à-agent avec rôles explicites. Deux agents jouent "utilisateur" et "assistant" ou "lead research" et "rédacteur" et conversent jusqu'à atteindre un but. Fort en reproductibilité et benchmarks académiques.
  • DeepAgents est construit pour les tâches longue durée. L'agent top planifie, délègue des sous-tâches à des sub-agents spawneés, chacun avec son propre context window. Conçu pour éviter le mode d'échec "un seul contexte géant".
  • GPT Researcher est le cas appliqué. Vous lui donnez une question de recherche, il fait tourner un swarm de sub-agents pour réunir les preuves et produit un rapport long avec citations. Utile à la fois comme outil et comme architecture de référence.

Installer en une commande

# Installe le pack entier
tokrepo install pack/multi-agent-frameworks

# Ou un par un
tokrepo install langgraph
tokrepo install camel
tokrepo install deepagents
tokrepo install gpt-researcher

Le TokRepo CLI installe l'adaptateur de chaque framework dans votre outil IA — subagents Claude Code dans .claude/agents/, règles Cursor dans .cursor/rules/, AGENTS.md pour Codex CLI. Lancez pip / npm pour les librairies sous-jacentes ; TokRepo câble les prompts pour que votre CLI sache quand les invoquer.

Pièges courants

  • Ne sautez pas le budget. Les runs multi-agent peuvent fan-out exponentiellement — un planner spawneant 5 workers chacun spawneant 5 sous-tâches brûle 25× les tokens. Plafonnez toujours la profondeur et le max-spawn. DeepAgents l'intègre ; avec LangGraph et CAMEL c'est à vous de le régler.
  • Ne partagez pas un client LLM entre threads naïvement. La plupart des SDK ne sont pas pleinement thread-safe en haute concurrence. Utilisez des pools au niveau process ou de l'async avec concurrence bornée (asyncio.Semaphore(8)).
  • Tracez tout. Débugger du multi-agent sans traces est impossible. Appariez ce pack avec LLM Observability — Langfuse et AgentOps ont des intégrations first-class LangGraph.
  • Attention au role drift. En dialogue style CAMEL, les agents oublient parfois qui ils sont vers le tour 8-10. Ajoutez un rappel system tous les N tours ou épinglez le rôle dans chaque message.
  • Multi-agent ≠ mieux. Essayez un seul Claude Sonnet 4.5 avec extended thinking avant de partir sur un système multi-agent. Le blog Anthropic 2025 sur la research multi-agent a trouvé que 60% des tâches lancées sur du multi-agent iraient très bien avec un agent + tools.

Quand ce pack ne suffit pas

Le multi-agent brille sur les tâches avec sous-problèmes parallélisables (research, code review, génération de contenu sur plusieurs sujets). Il perd sur :

  • Tâches séquentielles fortement stateful. Refactorer un codebase end-to-end est le boulot d'un agent — le découper entre plusieurs crée plus d'overhead de coordination que d'économies.
  • Workflows sensibles à la latence. Chaque saut entre agents ajoute un round-trip. Sous SLA 5s, restez single-agent.
  • Workflows sensibles au coût. Un run multi-agent coûte typiquement 3-10× un run single-agent pour la même tâche. Ça vaut le coup pour la qualité sur des problèmes durs ; pas pour "résume cet email".

La bonne façon d'adopter ce pack : commencez par GPT Researcher comme exemple fini le plus simple, puis passez à LangGraph ou DeepAgents quand vous avez besoin d'écrire votre propre orchestration.

INSTALLER · UNE COMMANDE
$ tokrepo install pack/multi-agent-frameworks
passez-la à votre agent — ou collez-la dans votre terminal
Ce qu'il contient

7 ressources prêtes à installer

Script#01
CAMEL — Multi-Agent Framework at Scale

CAMEL is a multi-agent framework for studying scaling laws of AI agents. 16.6K+ GitHub stars. Up to 1M agents, RAG, memory systems, data generation. Apache 2.0.

by Script Depot·267 views
$ tokrepo install camel-multi-agent-framework-scale-23732313
Script#02
LangGraph — Build Stateful AI Agents as Graphs

LangChain framework for building resilient, stateful AI agents as graphs. Supports cycles, branching, persistence, human-in-the-loop, and streaming. 28K+ stars.

by LangChain·238 views
$ tokrepo install langgraph-build-stateful-ai-agents-graphs-cc1a6ed2
Script#03
DeepAgents — Multi-Step Agent Framework by LangChain

Agent harness built on LangGraph by the LangChain team. Features planning tools, filesystem backend, and sub-agent spawning for complex multi-step tasks like codebase refactoring. 16,500+ stars.

by LangChain·174 views
$ tokrepo install deepagents-multi-step-agent-framework-langchain-ac820f80
Script#04
GPT Researcher — Autonomous Research Report Agent

AI agent that generates detailed research reports from a single query. Searches multiple sources, synthesizes findings, and cites references.

by TokRepo Curated·339 views
$ tokrepo install gpt-researcher-autonomous-research-report-agent-23330210
Script#05
Goose — AI Developer Agent by Block

Open-source AI developer agent by Block (Square). Goose automates coding tasks with extensible toolkits, session memory, and MCP server support in your terminal.

by Agent Toolkit·157 views
$ tokrepo install goose-ai-developer-agent-block-dedbb70b
Skill#06
Claude-Flow — Multi-Agent Orchestration for Claude Code

Layers swarm and hive-mind multi-agent orchestration on top of Claude Code with 64 specialized agents, SQLite memory, and parallel execution.

by Skill Factory·74 views
$ tokrepo install claude-flow-multi-agent-orchestration-claude-code-34ff4f3b
Script#07
OpenAI Agents SDK — Build Multi-Agent Systems in Python

Official OpenAI Python SDK for building multi-agent systems with handoffs, guardrails, and tracing. Agents delegate to specialists, enforce safety rules, and produce observable traces. 8,000+ stars.

by OpenAI·83 views
$ tokrepo install openai-agents-sdk-build-multi-agent-systems-python-38035d0b
FAQ

Questions fréquentes

LangGraph est-il gratuit ?

Oui, LangGraph est open-source sous MIT et vous payez seulement les tokens LLM. Il y a un LangGraph Cloud payant pour le deploy managé avec checkpointing et traces, mais la librairie OSS est complète. CAMEL, DeepAgents et GPT Researcher sont aussi OSS — aucun tier payant n'est requis pour livrer.

Est-ce que ça marche avec Cursor ou Codex CLI ?

Les frameworks sont des librairies Python au niveau langage, pas spécifiques Claude Code. Tout CLI agent qui exécute des outils Python peut les piloter. Le TokRepo CLI installe le bon câblage — pour Codex CLI il livre des instructions AGENTS.md expliquant quand invoquer le framework, pour Cursor il ajoute des règles. L'installation Python sous-jacente est inchangée.

Comment LangGraph se compare-t-il à CAMEL ?

LangGraph est structure-first : vous dessinez une machine à états et les agents y prennent place. CAMEL est dialogue-first : vous assignez des rôles et laissez les agents converser. LangGraph gagne sur la fiabilité production et le checkpointing ; CAMEL gagne pour la research, les simulations et tout cas où la conversation est l'artefact. Beaucoup de setups production utilisent LangGraph pour orchestrer et appellent CAMEL pour des tâches de dialogue spécifiques.

Quelle est la différence avec le pack Memory Layer ?

La mémoire concerne ce qu'un agent retient entre sessions. Le multi-agent concerne comment plusieurs agents coordonnent dans une tâche. C'est orthogonal : un système multi-agent a souvent besoin d'une couche mémoire partagée (Mem0/Zep) pour que les workers ne redécouvrent pas des faits que le planner connaissait. Nous recommandons d'installer les deux packs si vous construisez quelque chose de sérieux.

Quand ne PAS utiliser un framework multi-agent ?

Quand la tâche est séquentielle et stateful (refactor ce fichier), sensible à la latence (UI chat sous 3s), ou assez simple pour un seul appel Claude/GPT. Le propre blog multi-agent d'Anthropic note que single-agent + extended thinking bat la plupart des setups multi-agent côté coût. Tirez sur le multi-agent quand la tâche parallélise naturellement (research multi-source) ou exige des rôles d'experts distincts.

PLUS DANS L'ARSENAL

12 packs · 80+ ressources sélectionnées

Découvrez tous les packs curatés sur la page d'accueil

Retour à tous les packs