Prompticon
glossaire

Chain of Thought en IA : définition et guide pratique

Découvrez le chain of thought prompting : comment faire raisonner l'IA étape par étape. Exemples, techniques, zero-shot CoT et cas d'usage.

glossairechain-of-thoughtllmprompt-engineering

Le chain of thought (CoT) prompting est une technique qui consiste à demander à un modèle d’IA de raisonner étape par étape avant de donner sa réponse finale. Au lieu de sauter directement à une conclusion, le modèle « montre son travail », ce qui améliore considérablement la précision sur les tâches impliquant de la logique, des mathématiques, de l’analyse et du raisonnement multi-étapes.

Pourquoi le chain of thought fonctionne

Les grands modèles de langage prédisent le prochain token en se basant sur tout ce qui précède. Quand un modèle saute directement à la réponse, il ne dispose que d’un seul token de « réflexion » pour trouver la bonne réponse. Quand il raisonne étape par étape, chaque étape intermédiaire devient un contexte qui guide l’étape suivante, créant une chaîne de logique de plus en plus affinée.

Les recherches de Google Brain (Wei et al., 2022) ont montré que le CoT prompting améliorait la précision sur les problèmes mathématiques de 17,7 % à 58,1 % avec PaLM 540B. La technique est particulièrement puissante pour les tâches où un humain aurait également besoin de réfléchir en plusieurs étapes.

L’idée clé : donner au modèle de l’espace pour raisonner est plus efficace que de lui demander d’être plus intelligent.

Avant et après : un exemple pratique

Sans chain of thought :

Prompt : “A store sells notebooks for $3 each. Sarah buys 4 notebooks and pays with a $20 bill. She also has a 10% discount coupon. How much change does she get?”

Réponse du modèle : “$9.20” (Incorrect)

Avec chain of thought :

Prompt : “A store sells notebooks for $3 each. Sarah buys 4 notebooks and pays with a $20 bill. She also has a 10% discount coupon. How much change does she get? Let’s work through this step by step.”

Réponse du modèle :

  1. Coût de 4 cahiers : 4 x 3 $ = 12 $
  2. Réduction : 10 % de 12 $ = 1,20 $
  3. Prix après réduction : 12 $ - 1,20 $ = 10,80 $
  4. Monnaie rendue sur 20 $ : 20 $ - 10,80 $ = 9,20 $

Réponse : 9,20 $

Dans ce cas, la réponse est la même, mais le raisonnement est transparent et vérifiable. Sur des problèmes plus complexes, l’approche étape par étape détecte des erreurs que la réponse directe manque complètement.

Variantes du chain of thought

CoT standard (few-shot)

On fournit un ou plusieurs exemples montrant le processus de raisonnement, puis on demande au modèle de résoudre un nouveau problème de la même manière. C’est la technique originale du papier de 2022.

Q: Roger has 5 tennis balls. He buys 2 cans of 3 balls each. How many does he have?
A: Roger starts with 5 balls. 2 cans of 3 balls each = 6 balls. 5 + 6 = 11 balls. The answer is 11.

Q: The cafeteria had 23 apples. They used 20 for lunch and bought 6 more. How many do they have?
A:

Zero-shot CoT

Il suffit d’ajouter « Let’s think step by step » à votre prompt. Aucun exemple nécessaire. De façon remarquable, cette seule phrase déclenche un comportement de raisonnement dans la plupart des grands modèles.

How many words are in the sentence "The quick brown fox jumps"?
Let's think step by step.

CoT à auto-cohérence (Self-Consistency)

On génère plusieurs chaînes de raisonnement pour le même problème, puis on prend la réponse finale la plus fréquente. Cela réduit le risque qu’une seule chaîne de raisonnement défaillante produise un résultat erroné.

Tree of Thought (ToT)

Une extension avancée où le modèle explore plusieurs branches de raisonnement à chaque étape, les évalue et élimine les pistes peu prometteuses. Utile pour les tâches complexes de planification et de stratégie.

Quand utiliser le chain of thought

Type de tâcheCoT utile ?Pourquoi
Problèmes mathématiques et logiquesOuiLes étapes de calcul multiples bénéficient d’un raisonnement explicite
Débogage de codeOuiParcourir la logique du code étape par étape permet de détecter des bugs subtils
Analyse complexeOuiDécomposer des décisions multi-facteurs améliore la précision
Écriture créativeParfoisUtile pour la planification de l’intrigue, moins pour la génération de prose
Questions factuelles simplesNon« Quelle est la capitale de la France ? » n’a pas besoin de chaîne de raisonnement
TraductionNonLe mapping direct fonctionne mieux que le raisonnement étape par étape

Conseils pour de meilleurs résultats avec le chain of thought

1. Soyez explicite. Des formulations comme « Think step by step », « Show your reasoning » ou « Break this into steps » fonctionnent toutes. Plus vous êtes précis sur le format de raisonnement attendu, meilleur sera le résultat.

2. Combinez avec le role prompting. Dire au modèle « You are a math tutor who always shows working » dans le system prompt renforce le comportement CoT tout au long de la conversation.

3. Vérifiez la chaîne, pas seulement la réponse. La vraie valeur du CoT est de pouvoir repérer où le raisonnement déraille. Lisez toujours les étapes intermédiaires.

4. Réservez-le aux tâches complexes. Ajouter du CoT à des questions simples gaspille des tokens et peut même diminuer la performance en sur-analysant des problèmes évidents.

Termes associés