Deux étudiants ont été punis pour avoir utilisé l’IA pour leurs devoirs. Un juge vient de donner raison à son institut
En décembre 2023, l'Institut Hingham du Massachusetts (États-Unis) a découvert que deux jeunes « avaient copié du matériel provenant d'une application d'IA dans le cadre d'un projet d'histoire des États-Unis, en essayant de le faire passer pour leur propre travail ». Les événements qui ont suivi sont frappants et reflètent un problème qui risque de s’aggraver à court et moyen terme.
Puni pour copie. Les deux étudiants ont reçu un échec sur deux sections du projet, mais ont été autorisés à les refaire séparément pour terminer le travail et le soumettre à nouveau. L'un des jeunes, dont les seules initiales sont indiquées -RNH-, a reçu une sanction disciplinaire qui comprenait l'obligation d'aller à l'école le samedi et de ne pas pouvoir faire partie d'un groupe sélectionné d'élèves.
Demande pour l'institut. Les parents de RNH ont fini par poursuivre en justice les professeurs de leur fils et l'institut. Selon ce procès, aucune règle dans le manuel de l'étudiant n'indiquait explicitement que les outils d'IA ne pouvaient pas être utilisés dans le travail de l'institut.
Les enfants ont même copié les erreurs de l'IA. Mais comme le souligne Ars Technica, le juge Paul Levenson, du tribunal de district du Massachusetts, a rendu une décision (PDF) en accord avec l'institut. Selon ce magistrat, l'institut autorise « l'utilisation de l'IA pour aider à réfléchir sur des sujets et identifier des sources ». Cependant, « à cette occasion, les étudiants ont copié et collé sans discernement à partir de l'application d'IA, y compris des citations de livres inexistants (hallucinations d'IA). »
Utiliser l’IA pour aider, oui, mais avec des limites. Comme le souligne le jugement, c’est l’un des arguments qui a révélé que les étudiants avaient effectivement utilisé ces outils d’IA de manière inappropriée. Les professeurs eux-mêmes ont souligné qu’ils avaient clarifié à plusieurs reprises les principes d’intégrité académique au RNH, y compris la manière appropriée d’utiliser l’IA.
Vérifier ce que dit l'IA est toujours une bonne idée. Plus précisément, les étudiants ont utilisé les fonctions d'IA de Grammarly, un outil bien connu pour sa capacité à corriger la syntaxe et l'orthographe des textes. Selon le juge Levenson, les étudiants « n'ont même pas vérifié les sources » que leur avait fournies la demande.
Ce travail semble être effectué par une machine. Susan Petrie, professeur d'histoire, a analysé le travail et a estimé que RNH n'avait consacré qu'environ 50 minutes sur le document, alors que d'autres étudiants y avaient consacré sept à neuf heures. Il utilisait plusieurs systèmes de détection de texte IA tels que « Turnitin », « Draft Back » et « Chat Zero », qui montraient tous deux qu'ils provenaient très probablement d'un moteur IA.
Méfiez-vous des IA qui font vos devoirs. La décision du juge Levenson indique clairement que c'est une chose d'utiliser l'IA comme aide et une autre de l'utiliser pour faire ses devoirs du début à la fin, et surtout sans revoir le résultat et sans inclure les erreurs et les hallucinations de ces systèmes.
Le secteur de l'éducation tente de s'adapter. L’apparition de ChatGPT en novembre 2022 a rapidement déclenché un débat majeur parmi les éducateurs du monde entier. Soudainement, ces types de chatbots menacent la fin des devoirs, et bien que ces systèmes commettent des erreurs et qu'il existe des moyens de détecter ce type d'utilisations inappropriées, leur utilisation promet de se développer de manière significative. La question est de savoir si l’éducation traditionnelle a du sens et si tout mémoriser et faire ses devoirs – ce qui ne fonctionne plus comme avant – est la bonne manière de se former pour l’avenir. Il serait peut-être bien plus important d’apprendre à penser.
Images | Avancement
À Simseo | Les devoirs sont au centre des préoccupations de nombreux parents depuis de nombreuses années. Ils ont de bonnes raisons