Automated Coding of Communications in Collaborative Problem-solving Tasks Using ChatGPT

Cette étude démontre que ChatGPT peut coder efficacement les données de communication pour l'évaluation de la résolution collaborative de problèmes, bien que sa performance varie selon les modèles, les cadres d'analyse et les tâches, offrant ainsi des pistes pour des méthodes d'analyse évolutives.

Jiangang Hao, Wenju Cui, Patrick Kyllonen, Emily Kerzabi, Lei Liu, Michael Flor

Publié 2026-03-04
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Le Défi : Comprendre les conversations d'équipe

Imaginez que vous voulez évaluer comment les gens travaillent ensemble pour résoudre des énigmes complexes (comme des problèmes scientifiques ou des négociations). Pour savoir si une équipe fonctionne bien, les experts doivent lire toutes leurs conversations (leurs chats) et les classer dans des catégories : "Ils partagent une idée", "Ils sont d'accord", "Ils se disputent", ou "Ils restent sur le sujet".

C'est un peu comme si vous deviez trier des milliers de lettres manuscrites, une par une, pour comprendre l'histoire de chaque équipe. C'est lourd, lent et coûteux. C'est le "goulot d'étranglement" qui empêche de tester des milliers d'élèves ou de travailleurs.

🤖 La Solution : Le Robot ChatGPT

Les chercheurs de l'ETS (un institut de recherche américain) se sont demandé : "Et si on utilisait ChatGPT, ce super-robot intelligent, pour faire ce tri à notre place ?"

Ils ont voulu voir si ce robot pouvait lire les conversations, comprendre le contexte et les classer aussi bien qu'un humain expert, mais en une fraction de seconde.

🔬 L'Expérience : Le Match des Robots

Pour tester cela, ils ont organisé un grand tournoi avec 5 types de missions différentes (deux sur la science, trois sur des compétences générales comme la négociation) et 4 versions différentes de ChatGPT (du modèle standard aux modèles les plus récents et "raisonneurs").

Voici ce qu'ils ont découvert, avec des analogies simples :

1. Le Robot est souvent aussi bon que l'Humain (mais pas toujours)

  • La bonne nouvelle : Pour les tâches générales (comme négocier un événement ou choisir un appartement), le robot est incroyablement bon. Il classe les conversations presque aussi bien que les humains. C'est comme si vous aviez un assistant qui lit 100 lettres en une minute avec une précision humaine.
  • La surprise : Les modèles les plus récents et les plus "intelligents" (ceux qui sont censés "réfléchir" plus longtemps avant de répondre) ne sont pas forcément meilleurs. Parfois, le modèle standard (GPT-4o) fait un meilleur travail que les modèles ultra-puissants. C'est comme si un expert généraliste était plus efficace qu'un philosophe pour ranger une bibliothèque !

2. Le Langage Scientifique est un obstacle

  • Quand les conversations portaient sur des sujets scientifiques (comme les volcans ou la condensation), le robot a eu plus de mal.
  • L'analogie : Imaginez que le robot est un excellent traducteur de langues courantes, mais qu'il a du mal avec le jargon technique d'un laboratoire. Les mots comme "magma", "vapeur" ou "pression atmosphérique" l'ont parfois confondu, le rendant moins précis que les humains qui comprennent le contexte scientifique.

3. La "Recette" compte plus que le "Cuisinier"

  • Le plus grand facteur de réussite n'était pas le robot lui-même, mais la "recette" (le cadre de codage) qu'on lui donnait.
  • L'analogie : Si vous donnez à un chef une recette floue et théorique, il fera une soupe bizarre. Si vous lui donnez une recette claire, basée sur la réalité du terrain, il fera un plat délicieux.
  • Dans l'étude, le robot a échoué avec un cadre théorique complexe, mais a excellé avec un cadre pratique et concret. Cela prouve que la façon dont on pose la question est aussi importante que la qualité du robot.

4. Peut-on apprendre au robot de ses erreurs ?

  • Les chercheurs ont essayé de corriger le robot en lui montrant ses erreurs passées (comme un professeur qui dit : "Non, cette phrase n'est pas un désaccord, c'est une question").
  • Le résultat : Ça a fonctionné pour certaines missions (comme l'étude des volcans), améliorant légèrement la précision. Mais pour d'autres, ça n'a rien changé, voire a empiré les choses. C'est comme essayer d'apprendre à un chien à faire un nouveau tour : parfois ça marche, parfois il est déjà aussi bien entraîné qu'il peut l'être.

💡 La Conclusion pour le Grand Public

Cette étude nous dit que nous pouvons utiliser l'IA pour analyser les conversations de groupe, ce qui va révolutionner la façon dont nous évaluons les compétences du 21ème siècle (comme le travail d'équipe).

Cependant, ce n'est pas encore un remplacement total des humains. C'est plutôt un super-assistant :

  • Il fait le gros du travail rapidement.
  • Il faut choisir le bon modèle (pas forcément le plus cher).
  • Il faut lui donner des instructions très claires et pratiques.
  • Il faut encore un humain pour vérifier le travail, surtout quand les sujets sont très techniques.

En résumé : L'IA est le nouveau "moteur" de l'analyse, mais nous devons toujours tenir le volant et choisir la bonne carte routière.