Frameworks Multi-Agente
CAMEL, LangGraph, DeepAgents, GPT Researcher — frameworks para orquestar equipos de agentes en producción.
Qué incluye este pack
Este pack reúne los siete frameworks multi-agente que los equipos realmente envían a producción en 2026, no las demos que se ven bien en Twitter y explotan bajo carga. Cuatro son frameworks de cabecera, tres son plantillas de research/role-play que los envuelven.
| # | Recurso | Tipo | Mejor para |
|---|---|---|---|
| 1 | LangGraph | framework con estado | Orquestación grafo en producción con checkpointing |
| 2 | CAMEL | framework role-play | Diálogo agente-a-agente, nivel académico |
| 3 | DeepAgents | framework research | Planificación de larga duración + spawn de sub-agentes |
| 4 | GPT Researcher | agente aplicado | Tema de entrada, informe de investigación de salida |
| 5 | Researcher swarm | plantilla | Roles CAMEL para investigación paralela |
| 6 | Pareja crítico-actor | plantilla | Un agente actúa, otro critica — corrección de errores |
| 7 | Planner jerárquico | plantilla | Patrón manager-spawns-workers con presupuesto |
Por qué importa este pack
Un agente solo es un loop de chat. Multi-agente es un sistema — y como todo sistema, necesita estructura (máquinas de estado, colas, reintentos) antes de sobrevivir a una carga real. Los cuatro frameworks aquí escogieron las estructuras que funcionan. Las tres plantillas te muestran cómo cablearlos para los casos de uso más comunes.
Los frameworks eligen abstracciones distintas:
- LangGraph trata la orquestación como grafo de estados. Declaras nodos (agentes/tools) y aristas (cuándo transicionar), y LangGraph maneja el checkpointing para que un run de 30 minutos pueda reanudarse tras un crash. Lo más cercano a un estándar default para producción.
- CAMEL se enfoca en diálogo agente-a-agente con roles explícitos. Dos agentes hacen de "usuario" y "asistente" o "líder de research" y "redactor" y conversan hasta lograr el objetivo. Fuerte en reproducibilidad y benchmarks académicos.
- DeepAgents está construido para tareas de horizonte largo. El agente top planifica, delega sub-tareas a sub-agentes spawneados, cada uno con su propio context window. Diseñado para evitar el modo de fallo "un único contexto gigante".
- GPT Researcher es el caso aplicado. Le das una pregunta de investigación, corre un swarm de sub-agentes para reunir evidencia y produce un informe largo con citas. Útil como herramienta y como arquitectura de referencia.
Instala en un comando
# Instala el pack completo
tokrepo install pack/multi-agent-frameworks
# O instala uno a uno
tokrepo install langgraph
tokrepo install camel
tokrepo install deepagents
tokrepo install gpt-researcher
TokRepo CLI instala el adaptador de cada framework en tu herramienta IA — subagentes Claude Code en .claude/agents/, reglas Cursor en .cursor/rules/, AGENTS.md para Codex CLI. Corre pip / npm para las librerías subyacentes; TokRepo cabea los prompts para que tu CLI sepa cuándo invocarlas.
Errores comunes
- No te saltes el presupuesto. Las ejecuciones multi-agente pueden ramificarse exponencialmente — un planner spawneando 5 workers cada uno spawneando 5 sub-tareas quema 25× tokens. Cap siempre la profundidad y max-spawn. DeepAgents lo trae integrado; con LangGraph y CAMEL lo configuras tú.
- No compartas un cliente LLM entre threads sin pensar. La mayoría de SDKs no son del todo thread-safe en alta concurrencia. Usa pools a nivel proceso o async con concurrencia acotada (asyncio.Semaphore(8)).
- Trazea todo. Debug multi-agente sin traces es imposible. Empareja este pack con LLM Observability — Langfuse y AgentOps tienen integraciones first-class con LangGraph.
- Cuidado con el role drift. En diálogo estilo CAMEL, los agentes a veces olvidan quiénes son hacia el turno 8-10. Añade un recordatorio system cada N turnos o fija el rol en cada mensaje.
- Multi-agente ≠ mejor. Prueba primero un Claude Sonnet 4.5 con extended thinking antes de tirar a multi-agente. El blog Anthropic 2025 sobre research multi-agente encontró que el 60% de tareas que la gente lanza a setups multi-agente irían bien con un agente + tools.
Cuándo este pack no basta
Multi-agente brilla en tareas con sub-problemas paralelizables (research, code review, generación de contenido por temas). Pierde en:
- Tareas secuenciales, deeply-stateful. Refactorizar un codebase end-to-end es trabajo de un agente — partirlo entre varios crea más overhead de coordinación que ahorro.
- Workflows latency-sensitive. Cada salto entre agentes añade un round-trip. Bajo SLA de 5s, quédate single-agent.
- Workflows cost-sensitive. Un run multi-agente cuesta típicamente 3-10× lo de un run single-agent para la misma tarea. Vale para calidad en problemas duros; no para "resume este email".
La forma correcta de adoptar este pack: empieza con GPT Researcher como el ejemplo terminado más simple, luego gradúa a LangGraph o DeepAgents cuando necesites escribir tu propia orquestación.
7 recursos listos para instalar
Preguntas frecuentes
¿LangGraph es gratis?
Sí, LangGraph es open-source bajo MIT y solo pagas tokens LLM. Hay un LangGraph Cloud de pago para deploy gestionado con checkpointing y traces, pero la librería OSS está fully featured. CAMEL, DeepAgents y GPT Researcher son también OSS — no se requiere tier de pago para lanzar.
¿Funciona con Cursor o Codex CLI?
Los frameworks son librerías Python a nivel lenguaje, no específicas de Claude Code. Cualquier CLI agente que corra herramientas Python puede manejarlos. El TokRepo CLI instala el cableado correcto — para Codex CLI envía instrucciones AGENTS.md explicando cuándo invocar el framework, para Cursor añade reglas. La instalación Python subyacente no cambia.
¿Cómo se compara LangGraph con CAMEL?
LangGraph es structure-first: dibujas una máquina de estados y los agentes encajan en ella. CAMEL es dialogue-first: asignas roles y dejas que los agentes conversen. LangGraph gana en confiabilidad de producción y checkpointing; CAMEL gana en research, simulaciones y casos donde la conversación misma es el artefacto. Muchos setups usan LangGraph para orquestar y llaman CAMEL para tareas de diálogo concretas.
¿Cuál es la diferencia con el pack Memory Layer?
Memoria es sobre qué recuerda un agente entre sesiones. Multi-agente es sobre cómo varios agentes coordinan dentro de una tarea. Son ortogonales: un sistema multi-agente suele necesitar capa de memoria compartida (Mem0/Zep) para que los workers no re-descubran hechos que el planner ya sabía. Recomendamos instalar ambos packs si construyes algo serio.
¿Cuándo NO debería usar un framework multi-agente?
Cuando la tarea es secuencial y stateful (refactoriza este archivo), latency-sensitive (UIs chat bajo 3s), o lo bastante simple para un Claude/GPT solo. El propio blog multi-agente de Anthropic nota que single-agent + extended thinking le gana a la mayoría de setups multi-agente en coste. Recurre a multi-agente cuando la tarea paraleliza naturalmente (investigar muchas fuentes) o requiere roles expertos distintos.
12 packs · 80+ recursos seleccionados
Explora todos los packs curados en la página principal
Volver a todos los packs