TOKREPO · ARSENAL
Stable

Toolkit Prompt Engineering

Awesome Prompt Engineering, OpenAI Cookbook, les 27 frameworks de Prompt Architect, Prompt Master, et le subagent prompt-engineer de Claude Code.

6 ressources

Ce que contient ce pack

Ce pack rassemble six ressources prompt-engineering à fort signal et les associe à un subagent Claude Code qui les applique vraiment. Le mélange est délibéré : deux références encyclopédiques, deux collections de frameworks à parti pris, et deux outils opérationnels que vous pouvez glisser dans votre éditeur.

# Ressource Type Ce qu'elle vous donne
1 Awesome Prompt Engineering liste curée Index de papers, cours, librairies
2 OpenAI Cookbook repo de référence 200+ exemples fonctionnels pour APIs OpenAI
3 Prompt Architect — 27 frameworks collection CRISPE, RACE, RICE, RTF et 23 autres
4 Prompt Master collection Bibliothèque de patterns avec exemples red-team
5 prompt-engineer subagent agent Claude Code Réécrit un prompt selon le framework choisi
6 Prompt scaffolds pack snippets System messages réutilisables pour tâches communes

La collection a un parti pris sur l'ordre d'opérations : lisez l'awesome list pour cartographier le terrain, copiez un framework qui colle à votre tâche, puis lancez le subagent sur votre brouillon et itérez.

Pourquoi un "toolkit" plutôt qu'une autre liste

Les résultats de recherche pour "prompt engineering" se sont effondrés sur les mêmes cinq conseils sur chaque page. Ce pack résout un problème différent : une fois que vous connaissez les bases, à quoi vous tournez-vous pour progresser ?

La réponse s'avère être trois choses en tension :

  • Étendue — voir comment les prompts varient selon les domaines, modèles et bizarreries de provider. L'awesome list et le Cookbook couvrent ça.
  • Structure — choisir un cadre pour que vos prompts soient auditables, comparables et réutilisables. Les 27 frameworks et Prompt Master couvrent ça.
  • Itération — passer du brouillon N au N+1 vite, avec justification. Le subagent Claude Code couvre ça.

Avoir les trois en même temps est ce qui compose. En garder une ou deux vous laisse redécouvrir les mêmes erreurs pendant des mois.

Installer en une commande

# Installer le pack entier
tokrepo install pack/prompt-engineering-toolkit

# Ou seulement le subagent
tokrepo install prompt-engineer

Le subagent s'active dans Claude Code sur une requête comme @prompt-engineer rewrite this prompt for clarity and falsifiability. Il utilise un des 27 frameworks (défaut : CRISPE) et émet un diff plus une section rationale. Les collections de frameworks vivent sous .claude/skills/prompt-engineering/ pour référence depuis n'importe quelle session.

Pièges courants

  • Traiter les frameworks comme évangile. CRISPE / RACE / RTF sont des échafaudages, pas des lois. Le subagent en choisit un selon la tâche ; si son choix semble mauvais, écrasez avec --framework=<name> plutôt que de batailler avec la sortie.
  • Sauter l'éval. Une réécriture qui "semble meilleure" peut scorer pire sur votre vrai test set. Combinez avec Eval & Guardrails LLM (Promptfoo / DeepEval) pour que chaque changement ait un delta quantifié.
  • Drift de provider. Les exemples du Cookbook OpenAI supposent les APIs OpenAI. Les équivalents Claude / Gemini diffèrent dans des subtilités (gestion system message, schémas tool use). En portant, regardez d'abord la doc prompting du provider.
  • Sur-prompting. Les longs prompts cachent des bugs. Si un prompt dépasse ~400 tokens, factorisez des parties dans une définition d'outil ou un appel de retrieval plutôt que tout fourrer dans le system message.
  • Pas de version control. Les prompts sont du code. Committez, diffez, code-reviewez. Le subagent émet des diffs précisément pour que ce cycle fonctionne.

Idées fausses courantes

  • "Le prompt engineering est mort parce que les modèles sont devenus plus malins." Le contraire — meilleurs modèles récompensent prompts plus structurés parce qu'ils peuvent suivre plus de contraintes fiablement. Ce qui est mort, c'est le trick-prompting (phrases jailbreak, mots magiques). Le prompting structuré vaut plus que jamais.
  • "Vous n'avez pas besoin de ça si vous utilisez un framework comme LangChain." Les frameworks composent les prompts ; ils ne les écrivent pas. Les system messages et descriptions de tool dans une chain LangChain restent des prompts à écrire.
  • "Le OpenAI Cookbook est spécifique OpenAI." Les patterns (function calling, sortie structurée, évaluateurs) se portent proprement sur Claude et Gemini. Les bindings diffèrent ; l'approche non.
INSTALLER · UNE COMMANDE
$ tokrepo install pack/prompt-engineering-toolkit
passez-la à votre agent — ou collez-la dans votre terminal
Ce qu'il contient

6 ressources prêtes à installer

Prompt#01
Awesome Prompt Engineering — Papers, Tools & Courses

Hand-curated collection of 60+ papers, 50+ tools, benchmarks, and courses for prompt engineering and context engineering. Covers CoT, RAG, agents, security, and multimodal. Apache 2.0.

by Prompt Lab·237 views
$ tokrepo install awesome-prompt-engineering-papers-tools-courses-1b3fa22b
Prompt#02
OpenAI Cookbook — Official Prompting Guides

Official prompting guides from OpenAI: GPT-5.2, Codex, Meta Prompting, and Realtime API guides. The definitive reference for OpenAI model optimization.

by OpenAI·127 views
$ tokrepo install openai-cookbook-official-prompting-guides-26b9b7dd
Prompt#03
Prompt Architect — 27 Frameworks for Expert Prompts

Transform vague prompts into structured, expert-level prompts using 27 research-backed frameworks across 7 intent categories. Works with Claude Code, ChatGPT, Cursor, and 30+ AI tools.

by Prompt Lab·100 views
$ tokrepo install prompt-architect-27-frameworks-expert-prompts-08f51e3b
Skill#04
Prompt Master — Zero-Waste AI Prompt Generator Skill

Claude Code skill that generates optimized prompts for 30+ AI tools. Auto-detects target tool, applies 5 safe techniques, catches 35 credit-killing patterns. 4.8K+ stars, MIT license.

by Prompt Lab·104 views
$ tokrepo install prompt-master-zero-waste-ai-prompt-generator-skill-0994566a
Prompt#05
AI Prompt Engineering Best Practices Guide

Comprehensive guide to writing effective prompts for Claude, GPT, and Gemini. Covers system prompts, few-shot learning, chain-of-thought, and structured output techniques.

by Skill Factory·114 views
$ tokrepo install ai-prompt-engineering-best-practices-guide-15f82b68
Skill#06
Claude Code Agent: Prompt Engineer — Design & Test Prompts

Claude Code agent for designing, optimizing, and testing LLM prompts. Improves accuracy, reduces token usage, and benchmarks results.

by Skill Factory·97 views
$ tokrepo install claude-code-agent-prompt-engineer-design-test-prompts-57eff515
FAQ

Questions fréquentes

Le pack est-il gratuit ?

Oui. Chaque ressource est open source — cinq repos GitHub plus le subagent format Anthropic. L'installation TokRepo est gratuite et n'introduit pas de proxy ou token. Vous payez seulement les appels à l'API LLM quand vous lancez le subagent sur un brouillon, et ça facture contre le provider que vous utilisez (Claude, OpenAI, Gemini).

Comment ça se compare à utiliser ChatGPT pour réécrire des prompts ?

ChatGPT peut réécrire, mais il choisit un framework implicite et ne vous donne pas de rationale. Le subagent prompt-engineer choisit un framework explicitement, liste les contraintes ajoutées, et émet un diff unifié pour que vous reviewiez ce qui a changé et pourquoi. Ça rend la réécriture auditable et vous laisse rejeter des choix spécifiques au lieu d'accepter le bloc.

Fonctionne avec Claude Code ou Cursor ?

Le subagent est natif Claude Code (c'est un fichier .claude/agents/*.md). Les collections de frameworks et repos de référence sont agnostiques au langage — ils s'installent en Markdown et peuvent être lus par n'importe quel éditeur IA. Les utilisateurs Cursor les référencent via @-mentions ; les utilisateurs Codex CLI les mettent dans AGENTS.md. Le subagent requiert spécifiquement la syntaxe d'invocation d'agent de Claude Code.

Différence avec écrire des prompts à la main ?

Les prompts à la main sont géniaux quand vous avez déjà prompté cette tâche exacte. Ce toolkit brille quand vous démarrez de zéro ou quand les prompts dérapent d'une façon que vous ne pouvez pas articuler. Les frameworks vous donnent un vocabulaire (Rôle, Contexte, Spécificité, Exemples) pour nommer ce qui manque. Une fois intériorisés, vous pouvez arrêter d'utiliser le subagent — c'est un succès, pas un échec.

Piège opérationnel ?

La plus grosse erreur c'est de ne pas commiter les prompts. Un changement de prompt est un changement de code avec le même profil de risque (régression, drift, attribution). Traitez le prompt réécrit comme une fonction refactorée : PR, review, eval, merge. Le subagent émet des diffs précisément pour que ce flux soit naturel, pas aspirationnel.

PLUS DANS L'ARSENAL

12 packs · 80+ ressources sélectionnées

Découvrez tous les packs curatés sur la page d'accueil

Retour à tous les packs