Les IA génératives, comme ChatGPT, bouleversent le paysage de l’enseignement supérieur, notamment en remettant en question les méthodes traditionnelles d’évaluation. Face à la capacité de ces IA à produire des contenus de qualité, les institutions doivent adapter leurs pratiques pour garantir l’intégrité académique et évaluer efficacement les compétences des étudiants.

Les principaux défis posés par les IA génératives pour une évaluation efficace et impartiale des étudiants sont nombreux. Parmi ceux-ci, trois sont particulièrement prégnants pour l’enseignement supérieur :

  • Comment distinguer un travail authentique d’un travail assisté par IA ?

Aujourd’hui, une IA permet de rédiger des dissertations, de créer des contenus multimédias et de synthétiser des informations de manière sophistiquée, rendant difficile la distinction entre le travail original de l’étudiant et celui généré par l’IA. Dès lors, évaluer à la seule lecture d’un rendu écrit devient moins pertinent et surtout moins fiable. Quelle est la part de travail réellement accomplie par l’étudiant ?

  • Comment déceler et éviter les fraudes ?

La facilité d’accès aux IA génératives augmente les possibilités de plagiat et de tricherie, compromettant ainsi la validité des évaluations. Il devient extrêmement aisé et rapide d’accéder à toutes formes de sources d’information, mais aussi de les stocker pour y accéder le moment venu. L’IA a tué les anti-sèches !

  • L’AI générative met à mal les méthodes d’évaluation traditionnelles

Les évaluations axées sur la restitution des connaissances deviennent obsolètes face à la capacité des IA à fournir rapidement des informations. Et les enseignants le savent bien puisqu’ils sont eux-mêmes utilisateurs de ces nouvelles solutions. Aussi, sont-ils en pleine réflexion sur la pédagogie et les moyens d’évaluer correctement les progrès réalisés par leurs apprenants ? Ne faudrait-il pas solliciter davantage leur esprit critique ou d’analyse ? Doit-on proposer des évaluations basées sur l’observation des comportements lors de mise en situation, comme par exemple, en médecine, sur des cas d’étude simulés ?

Avant de présenter quelques initiatives remarquables prises par des établissements pour tenter de répondre à ces enjeux d’équité et pertinence des évaluations, nous évoquons quelques pistes d’amélioration en cours d’expérimentation ou d’application.

Dans les divers travaux menés actuellement, nous pouvons identifier quelques bonnes pratiques.

Pour commencer, il semble essentiel d’établir des règles claires concernant l’utilisation des IA dans les travaux académiques, en précisant ce qui est autorisé et ce qui ne l’est pas. La transparence de l’utilisation des IA doit être exigée de la part des étudiants. Elle peut l’être aussi auprès des enseignants. L’exemplarité fait souvent démonstration d’autorité.

À peu près tous les experts convergent également vers la nécessité d’imaginer des évaluations qui reflètent des situations réelles et professionnelles. Ainsi, il ne s’agira plus de restituer des connaissances, mais bien de les mettre en application et de montrer une certaine maîtrise en la matière. Des démonstrations pratiques, des recherches empiriques, des présentations à un public réel, des jeux de rôle, des études de cas, sont des exemples de sujets, d’exercices ou d’examens qui donneront lieu à des évaluations libérées de l’impact éventuel des IA.

On pourra par ailleurs diversifier les formats d’évaluation en recourant par exemple à des examens oraux, des travaux collaboratifs, en favorisant les autoévaluations, les évaluations par les pairs, ou encore en créant des portfolios pour évaluer les compétences des étudiants et limiter les risques de fraude.

Un autre moyen d’organiser une réponse pour les enseignants consiste à les aider à intégrer l’usage des IA dans les évaluations. Ainsi, en impliquant directement les étudiants dans les usages et en autorisant le recours aux IA, on annihile toute tentation ou dissimulation. L’enseignant pourra demander à ses apprenants d’identifier les biais et les limites des productions d’IA, d’améliorer et argumenter des contenus générés par l’IA, ou encore de développer des prompts pour obtenir des résultats spécifiques.

Enfin, pour contourner les limites actuelles des IA génératives, basées sur des données issues du passé, l’enseignant pourra adapter ses sujets d’évaluation. Notamment, il serait judicieux selon la discipline, de choisir des sujets d’actualité ou peu documentés sur le Web pour limiter l’impact des IA, ou d’intégrer des données récentes ou des sources auxquelles les IA n’ont pas accès. La meilleure réponse restant de proposer des sujets basés sur des situations authentiques et d’actualité.

Quelles sont les principales initiatives des universités en matière d’évaluation à l’ère des IA ?

Les universités françaises et internationales mettent en place diverses initiatives pour adapter leurs pratiques d’évaluation face aux défis posés par les IA génératives. Ces initiatives visent à garantir l’intégrité académique tout en évaluant efficacement les compétences des étudiants.

Comme nous l’avons évoqué précédemment, de nombreuses réponses sont en phase de test ou de mise à l’épreuve un peu partout dans le monde universitaire.

Voici quelques exemples d’initiatives concrètes :

  • La Rochelle Université a mis en place un programme de transformation pédagogique basé sur l’approche par compétence (APC) pour l’ensemble de ses formations. Les équipes enseignantes ont décliné leurs syllabi en compétences, en s’appuyant sur des ateliers collectifs et des conseils individuels.
  • L’Université de Montréal utilise l’IA pour créer des études de cas plus représentatives de la réalité clinique. Les étudiants peuvent ainsi se préparer plus efficacement aux évaluations et à la pratique professionnelle.
  • L’Université de Fribourg propose des ateliers et des cours pour sensibiliser les enseignants aux enjeux de l’IA dans l’évaluation. Ces formations visent à les aider à repenser leurs pratiques d’évaluation et à intégrer les IA de manière responsable.
  • L’Université Bretagne Sud encourage l’utilisation de la taxonomie de Bloom revisitée pour identifier les limites des IA et adapter les évaluations en conséquence. Elle propose également des exemples de formats d’évaluation alternatifs, tels que la réalisation de vidéos, de podcasts ou de cartes conceptuelles.

Au-delà de ces réalisations récentes, les universités françaises travaillent sur des enjeux parallèles à cette montée en puissance des IA génératives. Elles envisagent ainsi une réelle transformation dans leurs missions historiques.

En résumé, les universités, comme tous les établissements d’enseignement supérieur, s’engagent activement dans la transformation de leurs pratiques d’évaluation pour répondre aux défis posés par les IA génératives. Leur objectif reste de garantir l’intégrité académique, d’évaluer efficacement les compétences des étudiants et de les préparer au mieux aux réalités d’un monde professionnel en continuelle évolution.

Envie de découvrir d’autres articles sur l’enseignement supérieur et la EdTech ? Rendez-vous sur le Blog des Robots !