Prompticon
glossaire

Hallucination IA : pourquoi l'IA invente et comment l'éviter

Découvrez ce qu'est une hallucination en IA, pourquoi les modèles de langage génèrent de fausses informations et les techniques pour les réduire.

glossairehallucinationllmia-sécurité

L’hallucination IA se produit quand un modèle de langage génère une information qui semble confiante et plausible mais qui est factuellement incorrecte, fabriquée ou incohérente. Le modèle ne ment pas — il n’a aucune notion de vérité. Il produit la séquence de mots statistiquement la plus probable en se basant sur ses données d’entraînement, et parfois cette séquence est fausse.

Pourquoi les modèles d’IA hallucinent-ils ?

Les grands modèles de langage comme ChatGPT, Claude et Gemini sont des prédicteurs de tokens. Ils ne récupèrent pas des faits depuis une base de données. Ils génèrent du texte en prédisant le mot qui devrait suivre, en se basant sur des patterns appris pendant l’entraînement. Cette architecture rend l’hallucination inévitable pour plusieurs raisons :

  1. Aucun ancrage dans la réalité : le modèle n’a pas accès à une base de connaissances vérifiée au moment de la génération. Il reconstruit l’information à partir de patterns compressés, qui peuvent être incomplets ou déformés.
  2. Bruit dans les données d’entraînement : le corpus d’entraînement contient des erreurs, des contradictions et des informations obsolètes. Le modèle absorbe tout sans distinguer le vrai du faux.
  3. Confiance sans incertitude : les modèles sont entraînés à produire un texte fluide et assuré. Ils n’expriment pas naturellement le doute, même quand ils le devraient.
  4. Date de coupure des connaissances : le modèle n’a aucune conscience des événements postérieurs à sa date d’entraînement, mais il peut quand même tenter d’y répondre par extrapolation.

Types d’hallucinations IA

TypeDescriptionExemple
Faits fabriquésInvention de statistiques, de dates ou d’événements« La tour Eiffel a été construite en 1902. »
Fausse attributionCitation de sources qui n’existent pas« Selon une étude de 2023 publiée dans Nature… » (aucune étude de ce type n’existe)
Confusion d’entitésMélange de personnes, de lieux ou de conceptsAttribuer une citation à la mauvaise personne
Non-sens plausibleTexte qui se lit bien mais ne signifie rienUne explication médicale utilisant des termes réels dans une combinaison absurde
Information obsolèteAffirmation qui était vraie mais ne l’est plus« Le PDG actuel de X est… » (il est parti il y a deux ans)

Comment détecter les hallucinations

Ne présumez jamais qu’une sortie d’IA est exacte sans vérification. Utilisez ces stratégies :

  • Recoupez les affirmations : vérifiez tout fait, statistique ou date spécifique auprès d’une source fiable. C’est particulièrement critique pour les informations médicales, juridiques et financières.
  • Demandez les sources : si le modèle cite un article, un livre ou une URL, vérifiez qu’il existe. Les citations fabriquées sont l’un des types d’hallucination les plus courants.
  • Repérez la confiance excessive : si le modèle répond à une question de niche ou ambiguë avec une certitude totale et sans nuance, traitez la réponse avec un scepticisme accru.
  • Testez avec des faits connus : avant de faire confiance au modèle sur des sujets inconnus, testez-le sur des faits que vous pouvez vérifier. S’il se trompe sur ceux-là, sa fiabilité sur le reste est discutable.

Comment réduire les hallucinations

1. Baisser la temperature

La temperature contrôle l’aléatoire. À des températures élevées, le modèle explore des choix de mots moins probables, augmentant le risque de générer de fausses informations. Régler la temperature entre 0,0 et 0,2 pour les tâches factuelles force le modèle à s’en tenir à ses prédictions les plus fiables.

2. Utiliser la Retrieval-Augmented Generation (RAG)

Le RAG connecte le modèle à des sources de données externes et vérifiées. Au lieu de se fier à sa mémoire d’entraînement, le modèle récupère des documents pertinents et base sa réponse dessus. C’est la solution architecturale la plus efficace contre l’hallucination.

3. Demander l’honnêteté via le prompt

Des instructions explicites réduisent l’hallucination :

Answer based only on the information provided below. If the answer is not in the provided text, say "I don't have enough information to answer this."
If you are not certain about a fact, clearly state your level of confidence.

4. Décomposer les questions complexes

Le modèle est plus susceptible d’halluciner face à des questions larges et multi-parties traitées en une seule passe. Décomposez les requêtes complexes en étapes plus petites et vérifiables en utilisant le chain-of-thought prompting.

5. Fournir du contexte

Plus vous incluez de contexte pertinent dans votre prompt, moins le modèle a besoin de combler les lacunes à partir de ses données d’entraînement. Collez le document source, le jeu de données ou le matériel de référence directement dans le prompt quand c’est possible.

6. Utiliser des sorties structurées

Demander des formats structurés (JSON, tableaux, listes à puces) rend les hallucinations plus faciles à repérer que dans de la prose continue. Chaque champ devient vérifiable indépendamment.

Impact concret

Les hallucinations IA ont eu des conséquences sérieuses. Des avocats ont soumis des documents juridiques contenant des citations de jurisprudence fabriquées par ChatGPT. Des étudiants ont rendu des travaux avec des sources inventées. Des entreprises ont publié du contenu généré par IA contenant de fausses statistiques. Le risque augmente quand les utilisateurs traitent les sorties d’IA comme faisant autorité sans vérification.

L’essentiel à retenir

L’hallucination n’est pas un bug qui sera corrigé dans la prochaine mise à jour. C’est une propriété fondamentale du fonctionnement des modèles de langage. Chaque utilisateur d’outils d’IA a besoin d’un workflow de vérification. Utilisez l’IA pour rédiger, brainstormer et accélérer votre travail, mais vérifiez toujours les affirmations factuelles auprès de sources fiables avant de publier ou d’agir.

Termes associés