Frameworks Agents Python
Phidata, AGiXT, AutoGPT, OpenAI Swarm, CrewAI — frameworks Python-first au-delà de LangGraph.
Ce que contient ce pack
Ce pack rassemble les cinq frameworks d'agent Python-first avec assez de code production pour être utilisés aujourd'hui, classés par étoiles GitHub et cadence de commits. Chacun représente une philosophie de conception différente — choisissez par la forme de votre problème, pas par le nom de marque.
| # | Framework | Style | Idéal pour |
|---|---|---|---|
| 1 | Phidata | agents style data-app | dashboards + agents tool-calling |
| 2 | AGiXT | plateforme agent complète | auto-hébergé multi-provider |
| 3 | AutoGPT | boucle autonome | poursuite d'objectifs ouverts |
| 4 | OpenAI Swarm | routage par hand-off | multi-agent léger |
| 5 | CrewAI | crews par rôle | workflows séquentiels d'équipe |
La liste exclut volontairement LangGraph (couvert par défaut dans la plupart des stacks LangChain) et les frameworks JS-only. Elle couvre l'espace de conception que les utilisateurs Python choisissent réellement quand le StateGraph de LangGraph paraît trop lourd.
Pourquoi « rester en Python » compte
La plupart des équipes ont déjà un stack Python — pandas, FastAPI, drivers Postgres, libs ML. Passer à un runtime d'agent TypeScript ou Go signifie réécrire la plomberie de données pour une feature. Ces cinq frameworks contournent ça entièrement. Ils tournent dans votre service FastAPI existant, partagent votre venv et appellent le même driver DB que votre backend utilise déjà.
La forme du trade-off :
- Phidata est le plus « pythonique » — les agents sont des classes avec des méthodes-outils, saveur SQLAlchemy. Idéal quand votre agent EST une data app (dashboards, outils internes).
- AGiXT est une plateforme complète avec UI, abstraction de provider, chains, extensions. Installation la plus lourde, le plus de features out-of-the-box.
- AutoGPT est l'archétype de boucle autonome — objectif entrant, plan + exécution + réflexion, répète. Plus cher en tokens ; moins de travail dev.
- OpenAI Swarm est le plus petit — les agents se transfèrent entre eux via une fonction
transfer_to_X(). Expérimental mais le modèle mental le plus propre pour le routage. - CrewAI vous laisse définir des objets
Agent,Task,Crew— rôles explicites, exécution séquentielle ou hiérarchique. Excellent pour les pipelines « marketing → review → publish ».
Installer en une commande
# Installe le pack — pose requirements + agents exemples dans votre projet
tokrepo install pack/python-agent-frameworks
# Ou en choisir un
tokrepo install crewai
tokrepo install openai-swarm
tokrepo install autogpt
Le TokRepo CLI télécharge le template getting-started de chaque framework, le place sous agents/<framework>/ et ajoute les dépendances à pyproject.toml ou requirements.txt. Lancez pytest agents/ pour valider les exemples avant de câbler vos vrais prompts.
Pièges courants
- N'utilisez pas AutoGPT pour des tâches fermées. Sa force ce sont les objectifs ouverts. Pour « résume ce PDF », vous brûlerez des tokens à réfléchir sur un problème à une étape évidente.
- Swarm est expérimental, pas production. OpenAI le publie comme repo de « pattern de conception ». Utilisez le pattern de routage ; construisez la boucle de production vous-même ou copiez-la dans un fork maintenu.
- Le mode séquentiel de CrewAI cache le parallélisme. Si deux tâches n'ont pas de dépendance, déclarez-les parallèles — le mode séquentiel exécute tout end-to-end même sans besoin.
- La couche storage de Phidata suppose Postgres. SQLite fonctionne pour dev local mais l'interface est bâtie autour de
JSONB. Planifiez un Postgres réel pour tout run déployé. - AGiXT évolue vite. Le schéma entre versions mineures a déjà cassé. Épinglez un tag spécifique en production et lisez le changelog avant de mettre à jour.
Quand ce pack seul ne suffit pas
Si votre problème est un service Python-only, ce pack suffit. Si vous avez :
- un backend Java/Spring → voir Frameworks Agents Multi-Langages pour Spring AI et LangChain4j
- une edge function TypeScript → le même pack multilang couvre Mastra
- une étape évaluateur non-LLM comme gate → associez avec Eval & Guardrails LLM
Vous pouvez aussi combiner : un orchestrateur CrewAI écrit en Python qui appelle un agent Spring AI en Java pour un outil spécifique, évalué par Promptfoo avant déploiement. Les frameworks ici sont des runtimes — ils ne dictent pas le reste de votre stack.
5 ressources prêtes à installer
Questions fréquentes
Ces frameworks sont-ils gratuits ?
Les cinq sont MIT ou Apache 2.0 open-source — pas de coût par siège, pas de cap d'usage du framework lui-même. Vous paierez quand même l'API LLM derrière (OpenAI, Anthropic, etc), et la version hébergée d'AGiXT coûte. Auto-héberger n'importe lequel des cinq est réellement gratuit, y compris le dashboard managé optionnel de Phidata.
Comment CrewAI se compare à LangGraph ?
CrewAI est par rôles et séquentiel par défaut — vous décrivez Agents et Tasks, puis assemblez un Crew. LangGraph est par graphes — vous dessinez nœuds et arêtes vous-même. CrewAI exprime plus vite les workflows d'équipe ; LangGraph mieux quand le control flow est irrégulier ou cyclique. Beaucoup d'équipes prototypent en CrewAI puis portent les hot paths sur LangGraph pour le contrôle.
Est-ce que ça fonctionne avec Claude Code ou Cursor ?
Ces frameworks sont des runtimes, pas des intégrations d'éditeur. Vous construisez des agents avec, puis les exécutez comme service Python. Votre éditeur (Claude Code, Cursor) c'est où vous écrivez le code, mais l'agent tourne comme votre service. Pour les subagents côté éditeur, voir le pack Awesome Claude Code Subagents.
Différence vs le pack Multi-Agent Frameworks ?
Multi-Agent Frameworks est agnostique de plateforme — il inclut des options JS, Go et Python côte à côte pour comparer. Ce pack est Python-only, plus profond dans les choix de conception Python. Si vous êtes engagé sur Python, commencez ici. Si vous choisissez encore le langage, commencez par Multi-Agent Frameworks.
Quel est le piège opérationnel avec AutoGPT ?
Il bouclera joyeusement à l'infini si vous ne cappez pas itérations ou budget tokens. La config par défaut peut dépenser 50$ de crédits OpenAI sur une tâche « analyse le marché » avant de remarquer qu'il tourne en rond. Définissez toujours max_iterations, max_cost_in_usd et un objectif strict — objectif vague + budget illimité c'est le mode de panne.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs