STEM Faculty Perspectives on Generative AI in Higher Education

Cette étude présente les résultats d'un groupe de discussion avec 29 professeurs de sciences et technologies d'une grande université publique américaine, révélant que l'intégration efficace de l'IA générative dans l'enseignement supérieur nécessite non seulement une adoption technique, mais aussi une refonte des méthodes pédagogiques, des modes d'évaluation et de la gouvernance institutionnelle.

Akila de Silva, Isabel Hyo Jung Song, Hui Yang, Shah Rukh Humayoun

Publié 2026-03-05
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple et imagée de cette étude, comme si nous en discutions autour d'un café.

🎓 Le Contexte : Une Révolution dans la Salle de Classe

Imaginez que l'enseignement supérieur est un grand navire. Jusqu'à récemment, les professeurs (les capitaines) décidaient de la route. Mais soudain, les étudiants ont reçu des "GPS" magiques (l'Intelligence Artificielle Générative, ou IA Générative) qui peuvent écrire des textes, coder des logiciels et résoudre des problèmes instantanément.

Ce navire navigue maintenant dans des eaux inconnues. Les professeurs ne savent plus exactement qui tient la barre : est-ce l'étudiant, est-ce la machine, ou est-ce le professeur ?

Cette étude, menée par des chercheurs de l'Université d'État de San Francisco, a réuni 29 professeurs de sciences et d'ingénierie (les "experts du navire") pour discuter de ce qui se passe vraiment dans leurs classes. Ils ont utilisé une méthode appelée "focus group", un peu comme un grand café où tout le monde peut parler librement.


🔍 Ce qu'ils ont découvert (Les 3 Grandes Questions)

Les chercheurs ont posé trois questions principales. Voici les réponses, traduites en langage courant :

1. Comment les professeurs utilisent-ils cette IA ? (Le Couteau Suisse)

Les professeurs ne rejettent pas l'IA ; ils l'utilisent comme un assistant personnel très rapide, mais parfois un peu brouillon.

  • Ce qu'ils font : Ils l'utilisent pour créer des quiz, rédiger des énoncés d'exercices, ou même résumer des emails longs et ennuyeux. C'est comme demander à un robot de faire l'ébauche d'un dessin, que le professeur doit ensuite peindre et corriger.
  • Le problème : Cela ne les fait pas travailler moins. Au contraire ! Au lieu de dessiner le croquis eux-mêmes de zéro, ils passent maintenant tout leur temps à vérifier si le robot n'a pas fait d'erreur. C'est le passage de "créateur" à "éditeur en chef".

2. Est-ce que ça aide les étudiants ? (Le Masque de Compétence)

C'est ici que ça devient compliqué, comme un magicien qui fait disparaître les difficultés.

  • Le côté positif : Les étudiants finissent leurs devoirs plus vite. L'IA agit comme un "tuteur privé" disponible 24h/24. Un étudiant en chimie qui ne sait pas coder peut obtenir un programme pour analyser ses données. C'est génial pour débloquer la situation.
  • Le côté négatif (Le vrai danger) : L'IA peut créer une illusion de compétence. Imaginez un étudiant qui utilise l'IA pour écrire un code. Il rend le devoir, il a la note, mais s'il doit expliquer comment ça marche ou réparer une erreur, il est perdu. Il a le résultat, mais pas la compréhension. C'est comme si quelqu'un vous donnait une voiture toute prête, mais vous ne savez pas conduire. Si la voiture tombe en panne, vous êtes bloqué.

3. De quoi ont-ils besoin pour survivre ? (Les Règles du Jeu)

Les professeurs sont un peu perdus et demandent de l'aide.

  • Formation : Ils veulent apprendre à "parler" à l'IA (ce qu'on appelle le prompting). C'est comme apprendre à donner des ordres précis à un chien très intelligent mais qui ne comprend que le français si on lui parle bien.
  • Règles claires : Actuellement, c'est le chaos. Dans un cours, l'IA est interdite ; dans l'autre, elle est obligatoire. Les étudiants sont comme des touristes sans carte : ils ne savent pas où ils ont le droit de marcher. Les professeurs veulent des règles claires par département.
  • Nouveaux examens : Pour éviter la triche, certains reviennent aux examens sur papier, en classe, sans téléphone. D'autres inventent de nouveaux défis : "Fais un devoir avec l'IA, puis critique ce que l'IA a fait".

💡 Les Grandes Idées à Retenir (La Morale de l'Histoire)

  1. Ce n'est pas une baguette magique : L'IA ne remplace pas le travail du professeur, elle le transforme. On passe de la création pure à la vérification experte.
  2. Attention aux faux-semblants : Si on ne change pas la façon d'évaluer les étudiants, l'IA risque de nous faire croire qu'ils savent tout, alors qu'ils ne font que copier-coller. Il faut tester leur cerveau, pas leur capacité à utiliser un outil.
  3. Il faut un équilibre : On ne peut pas interdire l'IA (elle est partout), mais on ne peut pas non plus la laisser faire n'importe quoi. Il faut des règles flexibles, comme un jardinier qui taille les branches pour que l'arbre pousse bien, plutôt que de le couper ou de le laisser envahir tout le jardin.

🚀 Conclusion

En résumé, cette étude nous dit que l'Université est en train de réapprendre à marcher avec des béquilles numériques. Ce n'est pas une fin en soi, mais un outil. Pour que cela fonctionne, il faut que les professeurs soient formés, que les règles soient claires, et surtout, qu'on s'assure que les étudiants apprennent vraiment à penser par eux-mêmes, même avec l'aide d'une machine très intelligente.

L'avenir ne sera pas "Humain contre Machine", mais "Humain + Machine", à condition que l'Humain reste le capitaine du navire.