Toolkit Prompt Engineering
Awesome Prompt Engineering, OpenAI Cookbook, les 27 frameworks de Prompt Architect, Prompt Master, et le subagent prompt-engineer de Claude Code.
Ce que contient ce pack
Ce pack rassemble six ressources prompt-engineering à fort signal et les associe à un subagent Claude Code qui les applique vraiment. Le mélange est délibéré : deux références encyclopédiques, deux collections de frameworks à parti pris, et deux outils opérationnels que vous pouvez glisser dans votre éditeur.
| # | Ressource | Type | Ce qu'elle vous donne |
|---|---|---|---|
| 1 | Awesome Prompt Engineering | liste curée | Index de papers, cours, librairies |
| 2 | OpenAI Cookbook | repo de référence | 200+ exemples fonctionnels pour APIs OpenAI |
| 3 | Prompt Architect — 27 frameworks | collection | CRISPE, RACE, RICE, RTF et 23 autres |
| 4 | Prompt Master | collection | Bibliothèque de patterns avec exemples red-team |
| 5 | prompt-engineer subagent | agent Claude Code | Réécrit un prompt selon le framework choisi |
| 6 | Prompt scaffolds | pack snippets | System messages réutilisables pour tâches communes |
La collection a un parti pris sur l'ordre d'opérations : lisez l'awesome list pour cartographier le terrain, copiez un framework qui colle à votre tâche, puis lancez le subagent sur votre brouillon et itérez.
Pourquoi un "toolkit" plutôt qu'une autre liste
Les résultats de recherche pour "prompt engineering" se sont effondrés sur les mêmes cinq conseils sur chaque page. Ce pack résout un problème différent : une fois que vous connaissez les bases, à quoi vous tournez-vous pour progresser ?
La réponse s'avère être trois choses en tension :
- Étendue — voir comment les prompts varient selon les domaines, modèles et bizarreries de provider. L'awesome list et le Cookbook couvrent ça.
- Structure — choisir un cadre pour que vos prompts soient auditables, comparables et réutilisables. Les 27 frameworks et Prompt Master couvrent ça.
- Itération — passer du brouillon N au N+1 vite, avec justification. Le subagent Claude Code couvre ça.
Avoir les trois en même temps est ce qui compose. En garder une ou deux vous laisse redécouvrir les mêmes erreurs pendant des mois.
Installer en une commande
# Installer le pack entier
tokrepo install pack/prompt-engineering-toolkit
# Ou seulement le subagent
tokrepo install prompt-engineer
Le subagent s'active dans Claude Code sur une requête comme @prompt-engineer rewrite this prompt for clarity and falsifiability. Il utilise un des 27 frameworks (défaut : CRISPE) et émet un diff plus une section rationale. Les collections de frameworks vivent sous .claude/skills/prompt-engineering/ pour référence depuis n'importe quelle session.
Pièges courants
- Traiter les frameworks comme évangile. CRISPE / RACE / RTF sont des échafaudages, pas des lois. Le subagent en choisit un selon la tâche ; si son choix semble mauvais, écrasez avec
--framework=<name>plutôt que de batailler avec la sortie. - Sauter l'éval. Une réécriture qui "semble meilleure" peut scorer pire sur votre vrai test set. Combinez avec Eval & Guardrails LLM (Promptfoo / DeepEval) pour que chaque changement ait un delta quantifié.
- Drift de provider. Les exemples du Cookbook OpenAI supposent les APIs OpenAI. Les équivalents Claude / Gemini diffèrent dans des subtilités (gestion system message, schémas tool use). En portant, regardez d'abord la doc prompting du provider.
- Sur-prompting. Les longs prompts cachent des bugs. Si un prompt dépasse ~400 tokens, factorisez des parties dans une définition d'outil ou un appel de retrieval plutôt que tout fourrer dans le system message.
- Pas de version control. Les prompts sont du code. Committez, diffez, code-reviewez. Le subagent émet des diffs précisément pour que ce cycle fonctionne.
Idées fausses courantes
- "Le prompt engineering est mort parce que les modèles sont devenus plus malins." Le contraire — meilleurs modèles récompensent prompts plus structurés parce qu'ils peuvent suivre plus de contraintes fiablement. Ce qui est mort, c'est le trick-prompting (phrases jailbreak, mots magiques). Le prompting structuré vaut plus que jamais.
- "Vous n'avez pas besoin de ça si vous utilisez un framework comme LangChain." Les frameworks composent les prompts ; ils ne les écrivent pas. Les system messages et descriptions de tool dans une chain LangChain restent des prompts à écrire.
- "Le OpenAI Cookbook est spécifique OpenAI." Les patterns (function calling, sortie structurée, évaluateurs) se portent proprement sur Claude et Gemini. Les bindings diffèrent ; l'approche non.
6 ressources prêtes à installer
Questions fréquentes
Le pack est-il gratuit ?
Oui. Chaque ressource est open source — cinq repos GitHub plus le subagent format Anthropic. L'installation TokRepo est gratuite et n'introduit pas de proxy ou token. Vous payez seulement les appels à l'API LLM quand vous lancez le subagent sur un brouillon, et ça facture contre le provider que vous utilisez (Claude, OpenAI, Gemini).
Comment ça se compare à utiliser ChatGPT pour réécrire des prompts ?
ChatGPT peut réécrire, mais il choisit un framework implicite et ne vous donne pas de rationale. Le subagent prompt-engineer choisit un framework explicitement, liste les contraintes ajoutées, et émet un diff unifié pour que vous reviewiez ce qui a changé et pourquoi. Ça rend la réécriture auditable et vous laisse rejeter des choix spécifiques au lieu d'accepter le bloc.
Fonctionne avec Claude Code ou Cursor ?
Le subagent est natif Claude Code (c'est un fichier .claude/agents/*.md). Les collections de frameworks et repos de référence sont agnostiques au langage — ils s'installent en Markdown et peuvent être lus par n'importe quel éditeur IA. Les utilisateurs Cursor les référencent via @-mentions ; les utilisateurs Codex CLI les mettent dans AGENTS.md. Le subagent requiert spécifiquement la syntaxe d'invocation d'agent de Claude Code.
Différence avec écrire des prompts à la main ?
Les prompts à la main sont géniaux quand vous avez déjà prompté cette tâche exacte. Ce toolkit brille quand vous démarrez de zéro ou quand les prompts dérapent d'une façon que vous ne pouvez pas articuler. Les frameworks vous donnent un vocabulaire (Rôle, Contexte, Spécificité, Exemples) pour nommer ce qui manque. Une fois intériorisés, vous pouvez arrêter d'utiliser le subagent — c'est un succès, pas un échec.
Piège opérationnel ?
La plus grosse erreur c'est de ne pas commiter les prompts. Un changement de prompt est un changement de code avec le même profil de risque (régression, drift, attribution). Traitez le prompt réécrit comme une fonction refactorée : PR, review, eval, merge. Le subagent émet des diffs précisément pour que ce flux soit naturel, pas aspirationnel.
12 packs · 80+ ressources sélectionnées
Découvrez tous les packs curatés sur la page d'accueil
Retour à tous les packs