Few-Shot Prompting : définition et guide pratique
Découvrez le few-shot prompting : comment guider l'IA avec des exemples. Différences avec le zero-shot, structuration et bonnes pratiques.
Le few-shot prompting est une technique qui consiste à fournir un petit nombre d’exemples dans votre prompt pour montrer au modèle d’IA exactement quel type de résultat vous attendez. Au lieu de simplement décrire ce que vous voulez, vous le démontrez. Le modèle généralise ensuite à partir de ces exemples et applique le même schéma aux nouvelles entrées.
Comment fonctionne le few-shot prompting
Quand vous donnez une tâche à un modèle d’IA sans exemples, il doit deviner le format, le ton et la structure que vous souhaitez. Le few-shot prompting élimine cette incertitude en incluant 2 à 5 paires entrée-sortie directement dans le prompt. Le modèle identifie le schéma dans vos exemples et le reproduit.
La technique fonctionne parce que les grands modèles de langage sont de puissants détecteurs de patterns. Même sans ré-entraînement, ils peuvent adapter leur comportement à la volée en fonction du contexte que vous fournissez.
Zero-shot vs one-shot vs few-shot
| Approche | Exemples fournis | Idéal pour |
|---|---|---|
| Zero-shot | 0 | Tâches simples et courantes que le modèle gère nativement |
| One-shot | 1 | Tâches où un seul exemple clarifie le format attendu |
| Few-shot | 2-5+ | Formatage complexe, classification ou tâches spécifiques à un domaine |
Le zero-shot prompting fonctionne bien pour les demandes simples. Mais quand vous avez besoin d’un formatage précis, d’un étiquetage cohérent ou d’un raisonnement spécifique à un domaine, le few-shot prompting le surpasse nettement.
Comment structurer les exemples few-shot
Suivez ces principes pour des prompts few-shot efficaces :
- Soyez cohérent : chaque exemple doit suivre exactement le même format. Si un exemple utilise « Catégorie : X », tous les exemples doivent utiliser cette structure.
- Couvrez les cas limites : incluez au moins un exemple délicat ou ambigu pour que le modèle apprenne à les gérer.
- Diversifiez les exemples : choisissez des exemples représentant différents scénarios au sein de votre tâche. Évitez de répéter le même type.
- L’ordre compte : placez les exemples les plus représentatifs en premier et les cas limites en dernier.
- Utilisez des séparateurs clairs : marquez la frontière entre chaque exemple avec des lignes vides, des tirets ou des labels comme « Exemple 1 : », « Exemple 2 : ».
Exemples pratiques
Classification de texte
Classify the customer feedback as Positive, Negative, or Neutral.
Feedback: "The product arrived on time and works perfectly."
Classification: Positive
Feedback: "It broke after two days. Terrible quality."
Classification: Negative
Feedback: "It's okay, nothing special but it does the job."
Classification: Neutral
Feedback: "I love the design but the battery life is disappointing."
Classification:
Le modèle apprend le schéma d’étiquetage et gère correctement le cas limite du sentiment mixte, produisant généralement « Negative » ou « Mixed » selon le modèle.
Formatage de données
Convert the following into structured JSON.
Input: John Smith, 34, New York, Software Engineer
Output: {"name": "John Smith", "age": 34, "city": "New York", "job": "Software Engineer"}
Input: Maria Garcia, 28, London, Designer
Output: {"name": "Maria Garcia", "age": 28, "city": "London", "job": "Designer"}
Input: Kenji Tanaka, 45, Tokyo, Professor
Output:
Sans exemples, le modèle pourrait choisir des noms de champs ou un formatage différent. Avec le few-shot, il suit exactement votre schéma.
Quand utiliser le few-shot prompting
- Tâches de classification : analyse de sentiment, étiquetage, tagging, routage
- Formatage cohérent : sortie JSON, conversion CSV, templates spécifiques
- Langage spécialisé : terminologie médicale, juridique ou technique nécessitant un calibrage du modèle
- Correspondance de ton : quand vous avez besoin qu’un style d’écriture spécifique soit reproduit précisément
- Tâches ambiguës : quand une description verbale seule serait insuffisante
Quand le few-shot ne suffit pas
Si votre tâche nécessite un raisonnement multi-étapes, le few-shot seul peut ne pas suffire. Combinez-le avec le chain-of-thought prompting pour montrer au modèle non seulement la réponse, mais le processus de raisonnement. Vous pouvez aussi renforcer les exemples few-shot en les plaçant dans un system prompt pour un comportement persistant tout au long de la conversation.
Conseils pour de meilleurs résultats
- Commencez avec 3 exemples. N’en ajoutez que si le résultat est incohérent.
- Testez en retirant les exemples un par un pour trouver le minimum nécessaire.
- Si le modèle ignore votre format, ajoutez une instruction explicite comme « Follow the exact format shown above. »
- Pour ChatGPT et Claude, placer les exemples few-shot dans le message système peut améliorer la fiabilité dans les conversations multi-tours.
Termes associés
- Zero-Shot Prompting - prompter sans aucun exemple
- Chain-of-Thought - montrer les étapes de raisonnement dans les exemples
- System Prompt - instructions persistantes qui façonnent le comportement du modèle