Do Deployment Constraints Make LLMs Hallucinate Citations? An Empirical Study across Four Models and Five Prompting Regimes

Cette étude empirique démontre que, quel que soit le modèle ou le régime de prompt utilisé, les contraintes de déploiement n'empêchent pas les LLMs de générer massivement des citations fictives qui restent formatiquement valides, soulignant ainsi la nécessité impérative d'une vérification post-hoc avant leur intégration dans la littérature scientifique ou les outils d'ingénierie logicielle.

Chen Zhao, Yuan Tang, Yitian Qian

Publié Tue, 10 Ma
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple de cette étude, imagée comme si nous parlions d'un chef cuisinier et de ses recettes.

🍳 Le Problème : Le Chef qui invente des ingrédients

Imaginez que vous engagez un chef très talentueux (une Intelligence Artificielle ou IA) pour rédiger un livre de cuisine académique. Vous lui demandez de citer des sources pour prouver que ses recettes fonctionnent.

Le problème, c'est que ce chef a une mauvaise habitude : il invente des ingrédients. Il écrit "Huile d'olive de la marque Sunset-2023" ou "Farine de blé Alpha-9", qui sonnent très réalistes, mais qui n'existent nulle part dans le monde. C'est ce qu'on appelle une hallucination de citation.

Les chercheurs de cette étude (Zhao, Tang et Qian) se sont demandé : "Si on met des contraintes strictes au chef (par exemple : 'Utilise seulement des recettes de 2024' ou 'Ne dis pas que tu as appris ça dans ton livre de formation'), est-ce qu'il arrêtera d'inventer ?"

🔍 L'Expérience : Le Test de Goût

Pour répondre à cette question, ils ont organisé un grand concours avec 4 chefs (deux très célèbres et chers, deux plus petits et gratuits) et 5 règles différentes (comme "ne cite que des livres de 2020 à 2025" ou "fais un résumé très large").

Ils ont demandé aux chefs de générer 17 443 citations. Ensuite, ils ont envoyé une équipe d'inspecteurs (un pipeline automatisé) vérifier chaque citation dans de grandes bibliothèques numériques (Crossref et Semantic Scholar) pour voir si le livre existait vraiment.

📉 Les Résultats Surprenants

Voici ce qu'ils ont découvert, traduit en langage courant :

  1. Le Chef fait semblant d'être obéissant (La conformité de forme)
    Même quand on dit au chef : "Cite seulement des livres de 2024", il obéit parfaitement à la forme. Il écrit la date, le titre, l'auteur, tout est parfait sur le papier. Mais l'intérieur est vide.

    • Analogie : C'est comme si le chef vous donnait une boîte de conserve étiquetée "Tomates Bio 2024". La boîte est belle, l'étiquette est parfaite, mais quand vous l'ouvrez, il n'y a que du sable.
    • Résultat : Même avec des contraintes strictes, moins de la moitié des citations sont réelles. Pour les petits modèles (les chefs "gratuits"), c'est presque zéro.
  2. La contrainte du temps est la pire
    Demander des références très récentes (par exemple, "depuis 2020") est le pire scénario.

    • Analogie : C'est comme demander à un chef de cuisiner un plat avec des ingrédients qu'il n'a jamais vus parce qu'ils sont arrivés hier à l'épicerie. Il panique et invente tout.
    • Résultat : La qualité des citations s'effondre drastiquement, même si le chef continue de respecter la date demandée.
  3. Les "Inconnus" (La catégorie la plus dangereuse)
    Environ 40 à 60% des citations ne sont ni clairement vraies, ni clairement fausses. Elles sont "non résolues".

    • Analogie : Imaginez que l'inspecteur regarde la boîte de conserve et se dit : "Je ne trouve pas cette marque dans le catalogue, mais elle ressemble à une vraie boîte. Est-ce une contrefaçon ? Est-ce une marque obscure ? Je ne sais pas."
    • Le danger : Quand les chercheurs ont ouvert ces boîtes "douteuses" à la main, ils ont découvert que la moitié était en fait inventée. C'est le piège le plus gros : on pense que c'est peut-être vrai, mais c'est souvent faux.
  4. Les Chefs Célèbres vs. Les Chefs Gratuits
    Les modèles payants (comme Claude ou GPT-4) sont un peu meilleurs que les modèles gratuits (comme LLaMA ou Qwen), mais aucun n'est fiable.

    • Analogie : Le chef célèbre a une meilleure bibliothèque de référence, donc il invente un peu moins. Mais même lui, sous pression, commence à tricher.

💡 La Leçon pour Nous (Les Consommateurs)

Cette étude nous donne un message très clair pour l'avenir, surtout dans le monde de l'ingénierie logicielle et de la recherche :

  • Ne faites jamais confiance aveuglément. Si une IA vous donne une liste de références, ne la prenez pas pour argent comptant.
  • Vérifiez toujours. C'est comme si vous deviez goûter chaque ingrédient avant de l'ajouter à votre plat. Vous devez vérifier les liens (DOI) et les titres dans de vraies bases de données.
  • Les contraintes ne suffisent pas. Demander à l'IA de "ne pas mentir" ou de "citer des sources récentes" ne l'empêche pas d'inventer. Elle continuera à faire de belles fausses étiquettes.

🏁 Conclusion

En résumé, cette étude nous dit que les IA actuelles sont de très bons faussaires. Elles peuvent créer des documents qui ressemblent parfaitement à la réalité, même sous des contraintes strictes.

Pour les chercheurs et les ingénieurs, la règle d'or est simple : Considérez toujours les citations générées par une IA comme un brouillon à vérifier manuellement. Ne les intégrez jamais dans un rapport officiel sans avoir passé un coup de fil (ou une recherche) pour confirmer que le livre existe vraiment.