Compact Prompting in Instruction-tuned LLMs for Joint Argumentative Component Detection

Cet article propose une approche novatrice utilisant des modèles de langage de grande taille (LLM) ajustés par instruction et des prompts compacts pour traiter la détection de composants argumentatifs comme une tâche de génération, surpassant ainsi les systèmes de l'état de l'art sur des benchmarks standards.

Sofiane Elguendouze, Erwan Hain, Elena Cabrio, Serena Villata

Publié 2026-03-04
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🎯 Le Problème : Chasser les arguments dans un brouillard

Imaginez que vous lisez un long texte, comme un débat politique à la télé ou un article d'opinion sur internet. Dans ce texte, il y a des arguments. Mais les arguments ne sont pas écrits avec des étiquettes colorées. Ils sont cachés dans le flot des phrases.

Pour un ordinateur, c'est comme essayer de trouver des aiguilles dans une botte de foin, mais en plus compliqué : il faut non seulement trouver l'aiguille (l'argument), mais aussi dire si c'est une aiguille (une "Prémisse", c'est-à-dire la preuve) ou un aimant (une "Affirmation", c'est-à-dire la conclusion qu'on veut prouver).

Jusqu'à présent, les chercheurs faisaient cela en deux étapes, comme un travail d'usine :

  1. Étape 1 : Un robot coupe le texte en petits morceaux (il dit : "Ici commence un argument, ici ça finit").
  2. Étape 2 : Un autre robot regarde chaque morceau et dit : "C'est une preuve" ou "C'est une conclusion".

Le problème ? Si le premier robot se trompe et coupe au mauvais endroit, le deuxième robot est perdu. C'est comme essayer de cuisiner un gâteau en utilisant une recette écrite par quelqu'un qui a mal lu les mesures.

💡 La Solution : Le "Super-Traducteur" qui comprend tout d'un coup

Les auteurs de ce papier (une équipe de l'Université Côte d'Azur) ont eu une idée géniale : pourquoi ne pas demander à un seul robot très intelligent de faire tout le travail d'un coup ?

Ils ont utilisé des LLM (de grands modèles de langage, comme les cousins très savants de ChatGPT). Au lieu de leur demander de "classer" des morceaux, ils leur ont dit :

"Voici le texte brut. Réécris-le exactement tel quel, mais ajoute des balises magiques autour des arguments pour dire où ils commencent et où ils finissent."

C'est comme demander à un éditeur de livre de réécrire un manuscrit en ajoutant des surligneurs jaunes pour les preuves et des surligneurs roses pour les conclusions, sans jamais avoir coupé le texte avant.

🛠️ Comment ça marche ? (L'analogie du Chef Cuisinier)

Imaginez que vous avez un chef cuisinier (le modèle d'IA) et un plat de pâtes mélangées (le texte brut).

  • L'ancienne méthode : Vous demandez d'abord à un stagiaire de trier les pâtes dans des bols séparés (étape 1), puis à un autre de mettre une étiquette sur chaque bol (étape 2). Si le stagiaire mélange les pâtes, tout est perdu.
  • La nouvelle méthode : Vous donnez le plat de pâtes au Chef Cuisinier et vous lui dites : "Mets les pâtes dans l'assiette, mais entoure les pâtes avec de la sauce tomate si c'est une preuve, et avec de la crème si c'est une conclusion."

Le Chef (le modèle) lit tout le texte d'un coup, comprend le contexte, et sait exactement où placer les surligneurs, même si les phrases sont longues ou un peu confuses.

🏆 Les Résultats : Presque aussi bon qu'un humain

Les chercheurs ont testé cette méthode sur trois types de textes très différents :

  1. Des débats présidentiels américains (rapides, coupés, avec des interruptions).
  2. Des essais scolaires (bien structurés).
  3. Des commentaires sur le web (désordonnés, avec des fautes).

Le verdict ?

  • Leur "Chef Cuisinier" (un modèle appelé Llama-3) a obtenu un score de 87,78 % sur l'échelle de réussite.
  • C'est mieux que toutes les anciennes méthodes d'usine.
  • C'est presque aussi bien que ce qu'un humain ferait (le score humain est de 88,60 %).

C'est impressionnant car ils n'ont pas eu besoin de créer des règles complexes ou de couper le texte avant. Le modèle a appris à "voir" les arguments directement.

⚠️ Les petits défauts (Parce que rien n'est parfait)

Comme tout super-héros, ce modèle a ses faiblesses :

  1. L'illusion (Hallucination) : Parfois, le modèle est si créatif qu'il change un mot dans le texte. Par exemple, au lieu d'écrire "elle fait ce travail depuis 30 ans", il écrit "elle fait ce métier depuis 30 ans". Le sens est le même, mais pour un ordinateur qui vérifie mot à mot, c'est une erreur.
  2. L'interprétation : Parfois, le modèle trouve un argument là où les humains n'en avaient pas mis. Ce n'est pas forcément une erreur ! Cela montre que le modèle est très intelligent et voit des liens que les annotateurs humains ont peut-être manqués.

🚀 En résumé

Ce papier dit : "Arrêtons de découper les arguments en petits morceaux pour les analyser. Donnons le texte entier à un cerveau artificiel très intelligent et demandons-lui de nous le rendre avec des étiquettes."

C'est plus simple, plus rapide, et ça marche mieux. C'est comme passer d'une machine à écrire à un stylo magique qui comprend ce qu'il écrit.