Orchestration de Workflows
n8n, Prefect, Inngest, Kestra, Activepieces — moteurs durables qui encapsulent les agents IA avec cron, retries et observabilité.
Ce que contient ce pack
Ce pack rassemble les huit moteurs de workflow niveau-prod que les équipes IA utilisent quand un prompt-en-boucle ne suffit plus. Chacun résout le même trio — planifier, retry, observer — avec une ergonomie différente. Choisissez selon où vit déjà votre équipe (Python, Node, no-code, JVM).
| # | Moteur | Idéal pour |
|---|---|---|
| 1 | n8n | No-code / low-code, 400+ intégrations, auto-hébergeable |
| 2 | Prefect | Workflows Python-first data + IA, DAGs dynamiques |
| 3 | Inngest | TypeScript / Node, step functions event-driven |
| 4 | Kestra | YAML déclaratif, JVM, écosystème de plugins |
| 5 | Activepieces | Alternative OSS à Zapier, flux avec branching |
| 6 | Trigger.dev | Jobs longs TypeScript avec retries intégrés |
| 7 | Temporal | Primitives de workflow distribué pour grande échelle |
| 8 | Windmill | Scripts polyglot (Python/TS/Bash/Go) avec UI |
Tous open source et auto-hébergeables. La plupart ont un tier SaaS, mais ce pack documente d'abord le chemin OSS.
Pourquoi l'orchestration compte pour les agents IA
Les prompts sont déterministes la première fois et un coup de dés après. Ajoutez une action réelle — appel API, écriture DB, message Slack — et « ça a échoué une fois à 3h du matin » devient un événement hebdomadaire. Un moteur de workflow résout trois choses :
- Idempotence. Les steps peuvent rejouer en sécurité. Si l'appel LLM a réussi mais le step suivant a crashé, le retry ne re-facture pas l'API.
- Backoff et dead-letter. Les steps en échec retentent en backoff exponentiel, puis tombent en DLQ pour inspection humaine.
- Observabilité. Chaque step est enregistré avec inputs, outputs, latence, coût. Quand l'agent fait un truc bizarre, vous rejouez le contexte exact qu'il a vu.
Sans ça, votre agent est un Jupyter notebook avec des steps en plus. Avec ça, c'est un service.
Installer en une commande
# Installe le pack entier (manifestes des 8 moteurs)
tokrepo install pack/workflow-orchestration
# Ou choisir celui que votre équipe utilise
tokrepo install n8n
tokrepo install prefect
tokrepo install inngest
Le manifeste TokRepo vous donne des points de départ Docker Compose / Helm plus des défauts agent-friendly (clés d'idempotence, politiques de retry, hooks d'observabilité). Lancez tokrepo uninstall <slug> pour retirer.
Pièges courants
- Traiter les retries comme infinis. Les counts par défaut sur la plupart sont 3–5. Si votre fournisseur LLM a une mauvaise heure, vous brûlez le budget et échouez quand même. Cap à 3 pour appels LLM payants et routez l'échec vers un fallback plus lent.
- Clés d'idempotence mal faites. Erreur commune : utiliser
request_idqui change à chaque retry. Utilisez un hash d'input pour que les retries déduplique contre la même tâche logique. - Observabilité du coût des tokens manquante. Les orchestrateurs vanilla enregistrent la latence mais pas la dépense LLM. Wrappez l'appel modèle pour émettre
tokens_in / tokens_out / cost_usdpar step, sinon vous explosez le budget sans savoir quel workflow l'a fait. - Mauvaise granularité de scheduler. Les moteurs cron-based (n8n, Activepieces) galèrent avec triggers sub-minute. Pour event-driven sub-seconde, utilisez Inngest, Trigger.dev ou Temporal.
- Héberger le moteur sur le même nœud que l'agent. Un agent emballé OOM-era l'orchestrateur. Lancez le moteur sur un nœud ou container séparé avec limites mémoire dures.
Quand ce pack seul ne suffit pas
L'orchestration de workflow est la couche durabilité. Elle ne donne pas l'agent lui-même, ni le gateway LLM, ni l'eval. Combinez avec :
- Python Agent Frameworks pour le code agent qui tourne dans chaque step
- MCP Server Stack si vous voulez que les triggers d'orchestrateur soient appelables par des agents IA via MCP
- LLM Eval & Guardrails pour intégrer un step d'eval dans chaque workflow avant que la sortie n'atteigne la prod
Ensemble ces quatre packs sont le stack minimum pour tout workflow IA que vous laisseriez tourner sans surveillance.
8 ressources prêtes à installer
Questions fréquentes
L'orchestration de workflow est-elle gratuite ?
Les huit moteurs du pack sont open source et auto-hébergeables sur tier gratuit. n8n, Prefect, Inngest, Kestra, Activepieces, Trigger.dev, Temporal et Windmill publient des images OSS Docker. Compromis : vous opérez le moteur — DB, queues, scaling. Des tiers SaaS existent (n8n Cloud, Prefect Cloud, Inngest Cloud) si vous préférez payer plutôt qu'opérer.
Comment se compare-t-il à cron + un script Python ?
Cron n'a pas de retries, pas d'idempotence, pas d'observabilité, pas de DLQ. Votre script réussit ou retourne au prochain intervalle. Pour un agent IA qui appelle des APIs facturées et produit des side effects, ce n'est pas safe. La version la moins chère de ce pack — Inngest free + Vercel function — est la surface équivalente à cron mais avec retries et UI gratis.
Fonctionnera-t-il avec des agents Claude Code ou Cursor ?
Oui, mais indirectement. Claude Code et Cursor sont des agents code interactifs — ils tournent sur votre laptop. Les moteurs tournent sur serveur. Pattern : Claude Code écrit le code agent, vous l'enveloppez dans une step function (Inngest, Prefect task), le moteur l'exécute selon planning. Le moteur ne se soucie pas que le step appelle l'API Claude.
Différence vs Apache Airflow ?
Airflow existe et fonctionne, mais son modèle DAG-comme-Python et son tick scheduler lent en font un mauvais fit pour des agents IA qui ont besoin d'event-driven sub-seconde et de branching dynamique fréquent. Prefect, Inngest et Temporal sont nés comme 'Airflow moderne'. Nous avons laissé Airflow hors de ce pack parce que chaque équipe qui l'essaye pour agents IA migre en six mois.
Piège opérationnel à anticiper ?
La backpressure. Quand un fournisseur LLM downstream ralentit, les queues de l'orchestrateur enflent et OOM le moteur. Configurez des limites de concurrence par queue et un rate limiter global sur les appels LLM sortants avant de monter à l'échelle prod. Inngest et Trigger.dev l'ont built-in ; n8n et Prefect demandent une config explicite.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs