Detecting AI-Generated Essays in Writing Assessment: Responsible Use and Generalizability Across LLMs

Ce chapitre examine l'état actuel des détecteurs de textes générés par l'IA, propose des directives pour leur utilisation responsable et évalue empiriquement leur capacité à généraliser la détection entre différents grands modèles de langage (LLM) afin d'orienter leur développement pratique.

Jiangang Hao

Publié 2026-03-05
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🎓 Le Grand Débat : Qui a vraiment écrit cette dissertation ?

Imaginez que le monde de l'éducation est une immense salle de classe où les élèves doivent prouver qu'ils savent écrire et réfléchir. C'est comme un examen de conduite : on veut s'assurer que c'est bien le candidat qui conduit, et non un pilote automatique caché sous le capot.

Mais récemment, une nouvelle technologie (les IA génératives ou LLM) est arrivée. C'est comme un super-assistant de rédaction capable d'écrire des essais parfaits en quelques secondes. Le problème ? Les élèves pourraient utiliser cet assistant pour tricher, et les professeurs ne sauraient plus distinguer la plume humaine de la machine.

Ce document, écrit par des chercheurs de l'ETS (l'institut qui gère les grands examens comme le GRE), explore comment on peut repérer ces tricheries et, surtout, comment utiliser ces outils de détection de manière juste et responsable.

Voici les 4 points clés, expliqués simplement :

1. La Chasse aux Plagiaires a changé de visage 🕵️‍♂️

Avant, pour attraper un tricheur, on utilisait des détecteurs de plagiat. C'était comme un scanner de codes-barres : on comparait le texte de l'élève à une immense bibliothèque de textes existants sur internet. Si le texte correspondait, c'était du copier-coller.

Aujourd'hui, l'IA ne copie pas. Elle invente. C'est comme si un artiste peignait un tableau original qui ressemble à un style humain, mais qui n'existe nulle part ailleurs. Les vieux scanners ne voient rien. Il faut donc de nouvelles méthodes pour repérer les "signatures" invisibles de l'IA (le style, la structure, les mots trop parfaits).

2. Les Outils de Détection : Des Loups-Garous imparfaits 🐺

Les chercheurs ont testé plusieurs façons de repérer l'IA :

  • L'analyse du style (Le détective littéraire) : On regarde comment le texte est construit. L'IA a souvent un style trop lisse, trop régulier, comme un robot qui marche au pas. L'humain, lui, a des irrégularités, des pauses, des erreurs.
  • L'empreinte digitale du processus (La caméra de surveillance) : C'est l'astuce la plus intelligente. Si un élève écrit sur un ordinateur surveillé, on peut voir comment il écrit.
    • Humain : Il tape, s'arrête, réfléchit, efface, corrige, tape à nouveau. C'est chaotique et naturel.
    • IA (copié-collé) : Le texte arrive d'un coup, ou est tapé d'une traite sans aucune hésitation. C'est comme si quelqu'un avait posé un livre ouvert sur le clavier.
  • L'empreinte numérique (Le filigrane) : Certains proposent d'ajouter un code invisible dans le texte généré par l'IA. Mais c'est fragile : si on modifie un peu le texte, le code disparaît, comme une goutte d'encre dans l'eau.

3. Le Problème de la "Généralisation" : Le jeu du "Qui est qui ?" 🔄

C'est la partie la plus technique du document, mais voici l'analogie :
Imaginez que vous entraînez un chien de garde à aboyer sur un seul type de chien (disons, un Labrador). Si un autre Labrador passe, le chien aboie. Mais si c'est un Golden Retriever (un cousin proche), ça marche encore. Par contre, si c'est un Chihuahua ou un Husky (des modèles d'IA très différents), le chien de garde ne sait plus quoi faire.

Les chercheurs ont testé des détecteurs entraînés sur des textes d'une IA (ex: GPT-4) pour voir s'ils pouvaient repérer des textes d'une autre IA (ex: GPT-5).

  • Résultat : Ça marche bien entre les "cousins" (les versions récentes d'une même famille d'IA).
  • Mais : Dès qu'on change de famille d'IA (par exemple, passer de GPT à Claude ou Gemini), le détecteur devient souvent aveugle.
  • La solution : Il faut entraîner le détecteur avec tous les types d'IA possibles, comme un chien de garde qui apprend à reconnaître toutes les races de chiens, pas juste une.

4. La Règle d'Or : Ne pas se fier à un seul outil ⚖️

Le document met en garde contre une réaction de panique. Utiliser un détecteur d'IA comme preuve absolue de tricherie, c'est comme arrêter quelqu'un dans la rue juste parce qu'il ressemble à un voleur sur une photo floue.

Pourquoi c'est dangereux ?

  • Les faux positifs : Un bon élève, ou un élève qui écrit dans une langue qui n'est pas sa langue maternelle, peut être accusé à tort. L'IA peut parfois "imiter" trop bien le style humain, ou l'humain peut écrire de manière trop structurée.
  • La longueur compte : Détecter l'IA dans un mot ou une phrase courte est impossible. C'est comme essayer de deviner le genre d'un film en regardant une seule image.

La conclusion sage :
Les détecteurs ne doivent pas être le juge final. Ils doivent être un indice, comme un détective qui dit : "Hé, ce texte est bizarre, vérifions-le".

  • Il faut regarder le processus (comment l'élève a écrit).
  • Il faut croiser les preuves (entretiens, brouillons, écrits en classe).
  • Il faut des règles claires et justes pour tout le monde.

En résumé 🎯

Ce document nous dit : "L'IA est un outil puissant qui change la donne, mais nos outils pour la repérer sont encore imparfaits."

Au lieu de bannir les détecteurs ou de les utiliser aveuglément, nous devons les utiliser avec sagesse, en les combinant à d'autres preuves, pour protéger l'intégrité des examens sans punir injustement les élèves honnêtes. C'est un équilibre délicat entre la technologie et l'humain.