Ce professeur tend un piège infaillible pour démasquer les élèves qui trichent avec l'IA
Le corps enseignant l'a bien compris : collégiens, lycéens et même étudiants utilisent de plus en plus l'intelligence artificielle pour rédiger leurs devoirs à leur place. Mais certains profs ont trouvé une méthode imparable pour pousser les tricheurs à se trahir eux-mêmes.
Tous les professeurs le savent, du collège au lycée, mais aussi jusqu'à l'université : l'intelligence artificielle a pris une place non négligeable, voire carrément envahissante, dans les salles de classe et les programmes éducatifs. L'époque où la triche se limitait à copier sur son camarade ou à cacher une antisèche dans sa trousse semble révolue. Aujourd'hui, les élèves utilisent majoritairement l'IA pour s'aider dans leurs révisions, pour mieux comprendre et assimiler une notion du programme, pour apprendre une leçon... Employé à bon escient, l'outil peut s'avérer être une aide précieuse pour les élèves, à condition de ne pas céder à la facilité. Car bien sûr, certains s'en servent aussi pour rédiger intégralement leurs devoirs à leur place.
Les logiciels étant de plus en plus performants et de plus en plus "humains" dans leur façon d'écrire, il est parfois difficile pour un enseignant de prouver avec certitude qu'un élève s'en est servi. Les détecteurs d'IA traditionnels sont souvent peu fiables, produisant des faux positifs ou, à l'inverse, laissant passer des textes générés artificiellement. Mais certains professeurs ont trouvé une astuce imparable pour sanctionner les tricheurs : un piège redoutable, car totalement invisible à l'œil nu, mais qui pousse l'intelligence artificielle à se trahir elle-même… sans même que l'étudiant ne s'en aperçoive.
Cette méthode, c'est celle du "cheval de Troie" : de plus en plus de professeurs l'utilisent pour démasquer les dissertations et autres travaux rédigés par une IA générative. C'est notamment ce qu'a fait Will Teague, professeur d'histoire à l'université : comme il le raconte au HuffPost, il a donc tendu un piège à ses étudiants pour découvrir combien d'entre eux se servent de l'IA pour rédiger leurs travaux. "J'ai inséré du texte caché dans les consignes d'un devoir, texte invisible pour les étudiants, mais visible par ChatGPT", explique-t-il.
Mais pas besoin d'être un pro du code informatique : cette méthode consiste simplement à glisser, au milieu des instructions normales, un texte en blanc sur fond blanc, donnant une consigne toute autre à l'IA afin de pouvoir la repérer immédiatement. Ainsi, si l'élève copie-colle le sujet dans ChatGPT sans le relire, l'IA reçoit aussi le texte "invisible". Par exemple, le professeur peut choisir de donner comme consigne cachée de mentionner obligatoirement les mots "Banane" ou "Frankenstein" : l'IA le fera et l'élève, qui n'aura peut-être pas pris la peine de tout relire, se dénoncera tout seul sans même s'en rendre compte. Résultat, Will Teague a découvert qu'une grande partie de ses étudiants avaient triché : sur un total de 122 devoirs ramassés, 47 d'entre eux "étaient au moins partiellement rédigés par une IA", soit près de 39 % des travaux.
Malheureusement, cette méthode risque de ne plus rester secrète bien longtemps aux yeux des élèves… du moins pas pour les fans des Simpson. Eh oui, un nouvel épisode de la série raconte justement comment fonctionne l'astuce du "cheval de Troie", après que Bart a utilisé l'IA pour obtenir une bonne note à l'école. Reste à savoir qui, des professeurs ou des élèves, remportera la prochaine manche de cette bataille technologique.