How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms

Cette étude de 172 milliards de tokens, menée sur 35 modèles avec la méthodologie RIKER, révèle que les hallucinations dans les réponses documentaires augmentent considérablement avec la longueur du contexte, varient principalement selon le choix du modèle plutôt que la taille ou le matériel, et que l'ajustement de la température permet de réduire les boucles infinies au détriment d'une précision légèrement moindre.

JV Roig

Publié 2026-03-10
📖 6 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple et imagée de cette étude, comme si on en parlait autour d'un café.

🕵️‍♂️ Le Grand Défi : Les IA qui inventent des histoires

Imaginez que vous embauchiez un super-intelligent (une Intelligence Artificielle) pour répondre à vos questions en se basant uniquement sur un gros dossier de documents que vous lui donnez. C'est ce qu'on appelle le "Q&A documenté".

Le problème ? Parfois, ce super-intelligent ne se contente pas de lire le dossier. Il invente des réponses. C'est ce qu'on appelle une hallucination.

  • Exemple : Vous lui demandez : "Quel était le prix de l'action X en 2023 ?" (Si le dossier ne le dit pas). Au lieu de dire "Je ne sais pas", il pourrait inventer un chiffre faux mais très convaincant.

Cette étude, menée par Kamiwaza AI, s'est posée une question cruciale : À quel point ces IA mentent-elles vraiment ? Et surtout, comment le mesurer sans se tromper ?


🧪 La Méthode : Le "Jeu de la Vérité" (RIKER)

Avant cette étude, les chercheurs utilisaient des tests statiques (comme des examens scolaires) que les IA avaient peut-être déjà vus, ou ils demandaient à d'autres IA de noter les réponses (ce qui est biaisé).

Ici, ils ont utilisé une méthode géniale appelée RIKER. Imaginez que vous créez un dossier secret à partir de zéro, où vous savez exactement ce qui est vrai et ce qui est faux.

  • Vous créez un dossier avec des faits réels.
  • Vous posez des questions sur des choses qui n'existent pas dans ce dossier (des pièges).
  • Si l'IA répond à ces pièges, c'est qu'elle a menti (halluciné).

C'est comme un test de conduite où vous créez une route imaginaire avec des panneaux "Stop" qui n'existent pas. Si le conducteur s'arrête, c'est qu'il a halluciné un panneau.


📊 Les Résultats Choc : Ce qu'ils ont découvert

Ils ont testé 35 modèles différents (des IA de tailles variées) avec 172 milliards de mots de données. C'est énorme ! Voici les 5 leçons principales :

1. Personne n'est parfait (même les meilleurs)

Même les IA les plus intelligentes mentent un peu.

  • L'analogie : Imaginez un détective d'élite. Même le meilleur détective du monde se trompe parfois. Dans cette étude, le "meilleur" détective (GLM 4.5) a menti dans 1,19 % des cas sur un dossier court.
  • La réalité : Pour la plupart des modèles, ils mentent dans 25 % des cas (1 question sur 4 !).

2. Plus le dossier est gros, plus ils s'embrouillent

C'est le point le plus important. Plus vous donnez de documents à l'IA (contexte long), plus elle commence à inventer.

  • L'analogie : C'est comme demander à quelqu'un de résumer un livre de 10 pages. Il est précis. Mais si vous lui donnez une bibliothèque entière de 10 000 livres et que vous lui demandez un détail précis, il va commencer à inventer des faits pour combler les trous de sa mémoire.
  • Le chiffre : À 200 000 mots de documents, même les meilleures IA mentent dans plus de 10 % des cas. Certaines, comme GLM 4.6, passent d'un taux de mensonge de 7 % à 70 % ! C'est une catastrophe.

3. La taille ne fait pas tout (La famille compte plus)

On pensait que les IA plus grosses (plus de paramètres) étaient meilleures. Faux.

  • L'analogie : Ce n'est pas parce qu'un élève est plus grand qu'il est plus sage. Une IA de la famille Llama (même très grosse, 405 milliards de paramètres) s'est révélée être un grand menteur, inventant des faits presque aussi souvent qu'une toute petite version d'elle-même. En revanche, la famille GLM ou MiniMax a été très honnête, même si elle était plus petite.
  • Leçon : Choisir la bonne "famille" d'IA est plus important que de choisir la plus grosse.

4. Le bouton "Température" : Attention à ne pas tout figer !

En programmation d'IA, il y a un bouton appelé "Température".

  • La croyance populaire : "Mettez le bouton à 0 (zéro) pour être précis et ne pas inventer."
  • La découverte : C'est souvent faux !
    • Parfois, mettre le bouton à 0 rend l'IA plus rigide et elle commence à tourner en rond (elle répète la même phrase à l'infini et ne finit jamais sa réponse).
    • Parfois, mettre le bouton un peu plus haut (0,4 ou 0,7) l'aide à être plus créative et à moins mentir sur les faits.
  • L'analogie : C'est comme conduire une voiture. Rouler à vitesse constante (Température 0) semble sûr, mais si la route est glissante (dossier très long), vous glissez et faites un embardée. Rouler un peu plus souple (Température 0,7) vous permet de mieux corriger la trajectoire.

5. Le matériel (Hardware) n'a pas d'importance

Que vous utilisiez des puces NVIDIA, AMD ou Intel, le résultat est le même.

  • L'analogie : Que vous conduisiez une voiture sur une route en asphalte ou en béton, si le moteur est le même, la performance est la même. Vous pouvez choisir votre matériel selon le prix, pas selon la qualité de la réponse.

💡 Ce que cela signifie pour vous (Leçon pratique)

Si vous utilisez des IA dans votre entreprise pour répondre à des questions sur vos documents :

  1. Ne faites pas confiance aveuglément : L'IA va mentir. Il faut toujours vérifier les réponses, surtout si le document est très long.
  2. Choisissez bien votre IA : Ne prenez pas la plus grosse, prenez celle qui a prouvé qu'elle mentait peu (comme les modèles GLM ou MiniMax dans cette étude).
  3. Surveillez la longueur : Si vous donnez un dossier de 200 000 mots, attendez-vous à ce que l'IA commence à halluciner massivement.
  4. Jouez avec les réglages : Ne laissez pas toujours le bouton "Température" à 0. Essayez 0,4 ou 0,7 pour voir si cela réduit les mensonges et évite que l'IA ne se bloque.

En résumé : Les IA sont des outils incroyables, mais ce sont des menteurs involontaires quand les dossiers sont trop longs. Il faut les surveiller, les choisir avec soin et ne pas croire tout ce qu'elles disent, même si elles ont l'air très sûres d'elles !