Orquestación de Flujos
n8n, Prefect, Inngest, Kestra, Activepieces — motores duraderos que envuelven agentes IA con cron, reintentos y observabilidad.
Qué incluye este pack
Este pack reúne los ocho motores de workflow nivel-producción que los equipos IA usan cuando un prompt-en-loop deja de bastar. Cada uno resuelve el mismo trío — agendar, reintentar, observar — con ergonomía distinta. Elige por dónde ya vive tu equipo (Python, Node, no-code, JVM).
| # | Motor | Mejor para |
|---|---|---|
| 1 | n8n | No-code / low-code, 400+ integraciones, auto-alojable |
| 2 | Prefect | Workflows Python-first de data + IA, DAGs dinámicos |
| 3 | Inngest | TypeScript / Node, step functions event-driven |
| 4 | Kestra | YAML declarativo, JVM, ecosistema de plugins |
| 5 | Activepieces | Alternativa OSS a Zapier, flujos con branching |
| 6 | Trigger.dev | Jobs largos TypeScript con retries integrados |
| 7 | Temporal | Primitivas de workflow distribuido para escala seria |
| 8 | Windmill | Scripts polyglot (Python/TS/Bash/Go) con UI |
Todos open source y auto-alojables. La mayoría tiene tier SaaS, pero este pack documenta primero el path OSS.
Por qué importa la orquestación para agentes IA
Los prompts son deterministas la primera vez y cara o cruz después. Añade una acción real — llamar API, escribir DB, mandar Slack — y "falló una vez a las 3am" se vuelve evento semanal. Un motor de workflow resuelve tres cosas:
- Idempotencia. Los steps pueden re-ejecutarse a salvo. Si la llamada LLM tuvo éxito pero el siguiente step crasheó, el retry no re-cobra la API.
- Backoff y dead-letter. Steps fallidos reintentarán con backoff exponencial, luego caen en DLQ donde un humano inspecciona.
- Observabilidad. Cada step queda registrado con inputs, outputs, latencia y costo. Cuando el agente hace algo raro puedes replayear el contexto exacto que vio.
Sin esto, tu agente es un Jupyter notebook con pasos extra. Con esto, es un servicio.
Instala en un comando
# Instala el pack completo (manifiestos para los 8 motores)
tokrepo install pack/workflow-orchestration
# O elige el que usa tu equipo
tokrepo install n8n
tokrepo install prefect
tokrepo install inngest
El manifiesto TokRepo te da puntos de partida Docker Compose / Helm más defaults agente-amigables (claves de idempotencia, políticas de retry, hooks de observabilidad). Usa tokrepo uninstall <slug> para retirar.
Trampas comunes
- Tratar retries como infinitos. Los counts default en la mayoría son 3–5. Si tu LLM provider tiene mala hora, quemas el presupuesto y aún fallas. Cap a 3 para llamadas LLM pagadas y rutea el fallo a un fallback más lento.
- Claves de idempotencia mal hechas. Error común: usar
request_idque cambia por retry. Usa hash de input para que retries deduplicen contra la misma tarea lógica. - Falta observabilidad de costo de tokens. Los orquestadores vanilla registran latencia pero no gasto LLM. Envuelve la llamada al modelo para emitir
tokens_in / tokens_out / cost_usdpor step, si no te pasas del presupuesto sin saber qué workflow lo hizo. - Granularidad de scheduler equivocada. Motores cron-based (n8n, Activepieces) sufren con triggers sub-minuto. Si necesitas event-driven sub-segundo, usa Inngest, Trigger.dev o Temporal.
- Alojar el motor en el mismo nodo que el agente. Un agente desbocado te OOM-eará el orquestador. Corre el motor en nodo o contenedor separado con límites duros de memoria.
Cuándo este pack solo no basta
La orquestación es la capa de durabilidad. No te da el agente, ni el gateway LLM, ni el eval. Combina con:
- Python Agent Frameworks para el código del agente que corre dentro de cada step
- MCP Server Stack si quieres que los triggers del orquestador sean llamables por agentes IA vía MCP
- LLM Eval & Guardrails para meter un step de eval en cada workflow antes de que la salida llegue a producción
Juntos esos cuatro packs son el stack mínimo para cualquier workflow IA que dejes correr sin supervisión.
8 recursos listos para instalar
Preguntas frecuentes
¿La orquestación de workflows es gratis?
Los ocho motores del pack son open source y auto-alojables en tier gratis. n8n, Prefect, Inngest, Kestra, Activepieces, Trigger.dev, Temporal y Windmill publican imágenes OSS Docker. Trade-off: tú operas el motor — DB, colas, escalado. Hay tiers SaaS (n8n Cloud, Prefect Cloud, Inngest Cloud) si prefieres pagar a operar.
¿Cómo se compara con cron + un script Python?
Cron no tiene retries, ni idempotencia, ni observabilidad, ni DLQ. Tu script tiene éxito o corre de nuevo en el siguiente intervalo. Para un agente IA que llama APIs facturadas y produce side effects, no es seguro. La versión más barata de este pack — Inngest free + Vercel function — es la superficie equivalente a cron pero con retries y UI gratis.
¿Funcionará con agentes Claude Code o Cursor?
Sí, pero indirectamente. Claude Code y Cursor son agentes de código interactivos — corren en tu laptop. Los motores corren en server. Patrón: Claude Code escribe el código del agente, lo envuelves en una step function (Inngest, Prefect task), el motor lo corre en horario. Al motor no le importa que el step llame a la API de Claude.
¿Diferencia vs Apache Airflow?
Airflow existe y funciona, pero su modelo DAG-como-Python y el tick lento de scheduler lo hacen mal fit para agentes IA que necesitan event-driven sub-segundo y branching dinámico frecuente. Prefect, Inngest y Temporal nacieron como 'Airflow moderno'. Dejamos Airflow fuera porque cada equipo que lo prueba para agentes IA migra en seis meses.
¿Trampa operativa que debería planear?
Backpressure. Cuando un proveedor LLM downstream se enlentece, las colas del orquestador se hinchan y le hacen OOM al motor. Configura límites de concurrencia por cola y un rate limiter global a salidas LLM antes de escalar a producción. Inngest y Trigger.dev lo traen built-in; n8n y Prefect requieren config explícita.
12 packs · 80+ recursos seleccionados
Explora todos los packs curados en la página principal
Volver a todos los packs