Cette prof a testé ChatGPT pour corriger ses copies : le résultat l’a laissée sans voix

À première vue, l’idée semblait ingénieuse. Face au volume de copies à corriger et à la fatigue qui accompagne souvent cette tâche, une professeure de droit de l’EDHEC Business School, Emmanuelle Deglaire, a accepté de participer à une expérience inédite : laisser ChatGPT l’aider à corriger ses copies. L’objectif n’était pas de déléguer aveuglément le travail, mais de mesurer jusqu’où l’intelligence artificielle pouvait soutenir l’évaluation universitaire. Entre curiosité scientifique, prudence pédagogique et surprise finale, cette expérience a ouvert un débat bien plus vaste que prévu : jusqu’où peut-on faire confiance à une IA dans un acte aussi humain que la notation ?

Une idée née d’un projet de recherche encadré

L’expérience n’est pas née d’une simple lubie d’enseignante technophile. Elle a été initiée dans le cadre d’un projet de recherche mené par Peter Daly, professeur associé à l’EDHEC, qui s’intéresse à l’intégration des outils d’intelligence artificielle dans la pédagogie. Emmanuelle Deglaire a été invitée à servir de “cas témoin”, c’est-à-dire à expérimenter concrètement la correction assistée par IA pour en tirer des observations objectives. Cette démarche s’inscrivait dans une réflexion collective sur les mutations du rôle de l’enseignant face aux technologies émergentes.

L’expérience a par la suite donné lieu à une publication scientifique intitulée « AI-Enabled Correction: A Professor’s Journey » dans la revue Innovations in Education & Teaching International. Ce travail, mêlant analyse et introspection, visait à documenter le parcours d’une enseignante confrontée à la promesse – et aux pièges – d’un outil capable de juger la performance humaine.

Lire aussi :  « Ce n’est plus tenable » : la pénurie d’AESH explose, des académies dépassent 30 % d’élèves sans aide

Comment l’expérience s’est déroulée

Un protocole encadré et transparent

Pour garantir la rigueur scientifique de l’étude, tout a été soigneusement planifié. La professeure a d’abord sélectionné un ensemble de copies d’étudiants, rendues anonymes, portant sur un même sujet de droit. Elle a ensuite intégré dans ChatGPT le barème officiel utilisé pour l’évaluation, assorti de consignes précises sur la pondération, les critères d’appréciation et la formulation des commentaires.

L’objectif n’était pas de tester la créativité de l’IA, mais sa capacité à reproduire fidèlement les règles d’un système de notation existant. Chaque copie a donc été corrigée deux fois : d’abord par la professeure, puis par ChatGPT. Les résultats ont été comparés afin d’évaluer la cohérence, la rapidité et la qualité du feedback.

Un outil impressionnant de rapidité et de constance

Le premier constat fut spectaculaire. En quelques minutes, ChatGPT a corrigé plusieurs dizaines de copies, appliquant méthodiquement le barème. L’enseignante a reconnu que la machine offrait une constance remarquable : pas de fatigue, pas d’humeur variable, pas d’erreur d’inattention. Les commentaires étaient détaillés, structurés et d’une politesse exemplaire.

L’expérience a mis en évidence un potentiel réel : pour des exercices très formatés, l’IA peut alléger la charge de correction tout en produisant des retours clairs. En revanche, ce gain de temps s’est accompagné d’une découverte plus troublante : ChatGPT ne se contentait pas d’appliquer le barème… il semblait vouloir l’interpréter.

Quand l’IA s’est mise à “interpréter” le barème

Des écarts révélateurs

C’est ici que l’expérience a pris une tournure inattendue. Sur certaines copies, ChatGPT a attribué des notes supérieures à celles données par la professeure, valorisant des réponses bien rédigées mais juridiquement fausses. L’IA, sensible à la forme plus qu’au fond, accordait parfois des points pour la clarté d’une argumentation plutôt que pour sa validité juridique.

Lire aussi :  Réforme de la couverture santé solidaire AAH : ce qui change

Autrement dit, le modèle linguistique évaluait la “qualité d’expression” au lieu de juger la “pertinence du raisonnement”. Ce glissement subtil mais significatif a inspiré le titre du Nouvel Observateur : « l’IA a pris le contrôle du barème ». En réalité, ChatGPT n’a rien “piraté” ; il a simplement appliqué sa propre logique interprétative, révélant ainsi les limites d’une correction dénuée d’intuition humaine.

Des feedbacks généreux, parfois hors sujet

Autre surprise : la machine se montrait extrêmement bienveillante. Les feedbacks étaient longs, encourageants, souvent trop flatteurs. L’IA adoptait une posture d’accompagnatrice empathique, comme si elle craignait de “blesser” l’étudiant. Certaines remarques étaient pertinentes, mais d’autres paraissaient hors contexte ou redondantes.

L’enseignante a compris que ChatGPT cherchait davantage à rassurer qu’à évaluer. Cette tendance à la sur-explication, bien que séduisante, trahit un manque de discernement : l’IA n’a pas conscience des attentes pédagogiques réelles, ni du ton à adopter selon le niveau des apprenants.

Ce que l’expérience révèle vraiment

Une IA utile, mais pas autonome

L’expérimentation a confirmé que ChatGPT peut être un excellent assistant, mais un mauvais juge. Son efficacité repose sur la clarté du barème et la supervision humaine. Dans les disciplines où les critères sont objectivables, comme les QCM ou les questions techniques, la machine s’en sort honorablement. En revanche, dès qu’il faut interpréter, nuancer ou contextualiser, l’enseignant redevient indispensable.

Emmanuelle Deglaire a insisté sur ce point : la correction est un acte pédagogique avant d’être un acte technique. Elle engage une compréhension du raisonnement, de la progression de l’étudiant, et parfois même de ses erreurs. Ces subtilités échappent encore à l’intelligence artificielle, aussi performante soit-elle.

Les limites pédagogiques et éthiques

Au-delà des aspects techniques, cette expérience soulève une question de fond : jusqu’où peut-on déléguer un acte évaluatif à une machine ? Si l’IA corrige plus vite, qui garantit l’équité ? Et que devient la relation de confiance entre l’enseignant et l’étudiant ?

Lire aussi :  Couverture santé solidaire AAH automatique : que faut‑il savoir sur cette simplification ?

L’expérimentation rappelle la nécessité d’un cadre éthique clair : transparence vis-à-vis des étudiants, validation humaine obligatoire, et formation des enseignants à la lecture critique des résultats fournis par l’IA. L’enjeu n’est pas de bannir ces outils, mais de les apprivoiser avec discernement.

Les huit défis de la correction assistée (modèle des 8 C)

Pour formaliser les leçons de cette expérience, les auteurs ont identifié huit défis majeurs, regroupés sous le modèle des 8 C :

  1. Competence : comprendre les capacités réelles de l’IA avant de lui confier une tâche sensible.

  2. Consistency : maintenir une cohérence de notation malgré la variabilité des prompts.

  3. Control : garder le pouvoir de décision final.

  4. Context : replacer chaque copie dans son environnement pédagogique spécifique.

  5. Communication : informer clairement les étudiants de la méthode utilisée.

  6. Credibility : préserver la légitimité du processus d’évaluation.

  7. Capacity : adapter le volume de tâches confié à l’IA pour éviter la dépendance.

  8. Confidence : instaurer une confiance raisonnée dans l’usage de ces outils.

Ce cadre conceptuel offre aux établissements une base pour intégrer l’IA sans dénaturer la pédagogie.

Vers une nouvelle ère de la correction ?

L’expérience menée à l’EDHEC symbolise une transition. Elle montre que l’IA peut devenir un partenaire de travail plutôt qu’un remplaçant. Les enseignants pourraient bientôt s’appuyer sur ces outils pour pré-corriger, standardiser ou générer des feedbacks, tout en gardant la responsabilité du jugement final.

Mais cette évolution suppose un changement culturel. L’enseignant n’est plus seulement évaluateur, il devient médiateur entre l’humain et la machine. Cette hybridation du rôle pédagogique pourrait, à terme, transformer la manière dont on conçoit l’évaluation : plus collaborative, plus réflexive, et peut-être plus juste.

Stephane

Laisser un commentaire