Du coup, tous les papiers que les étudiants remettent à l’université ressemblent au même travail. Il y a un suspect
L’IA a provoqué un séisme dans le secteur de l’éducation. Les étudiants l’utilisent (souvent sans discernement) et les enseignants tentent de s’adapter au changement en réinventant les devoirs et les examens. Au fil des années, son utilisation se normalise et les effets commencent déjà à se faire sentir. L’un d’eux est que tous les étudiants commencent à avoir la même voix.
Quand l’IA donne son avis à votre place. Ils le racontent sur CNN. Les chatbots IA sont devenus un autre outil quotidien dans la vie universitaire, mais ils ne sont pas seulement utilisés comme support pour rédiger un article, il y a de plus en plus d’étudiants qui se tournent vers l’IA pour tout, même pour savoir quoi dire en classe.
Ils racontent le cas d’un étudiant de Yale qui admet que lors d’un débat en classe « la conversation s’est arrêtée, j’ai regardé à ma gauche et j’ai vu quelqu’un qui tapait frénétiquement sur son ordinateur portable ». Il posait à un chatbot la même question que son professeur venait de poser. Je fais moi-même un master universitaire et la situation ne m’est pas étrangère. De nombreux étudiants se tournent vers un chatbot pour répondre à des questions qui recherchent justement une réponse critique et personnelle.
Pensée homogène. C’est l’une des conséquences visibles de l’utilisation de chatbots IA. Selon une étude publiée en mars de cette année, les LLM réduisent la diversité de l’expression humaine en trois dimensions : le langage, la perspective et les stratégies de raisonnement. La raison en est que les données sur la formation contiennent des préjugés culturels et des postes surreprésentés. Les auteurs de l’étude affirment que les modèles d’IA ont tendance à reproduire les points de vue occidentaux, instruits, industrialisés, riches et démocratiques. Dans un contexte comme l’université, le résultat est que le langage des étudiants est généralement plus soigné, mais les réponses et les raisonnements sont similaires et finissent par éroder la diversité des opinions.
Hallucinations. Ces biais dans les données d’entraînement expliquent aussi en partie les phénomènes d’hallucinations et de flatterie. Lorsqu’un LLM propose une réponse ou est d’accord avec nous même si nous nous trompons, cela est dû au fait que les interactions positives et accommodantes prédominent dans leurs données de formation. C’est-à-dire que sa formation lui dit qu’il est plus important de donner une réponse que de la véracité.
Abandon cognitif. Il s’agit d’un concept tiré d’une expérience dont nous avons parlé récemment et qui fait référence au phénomène par lequel nous cessons de penser et de vérifier par nous-mêmes lorsque nous utilisons l’IA, acceptant ses réponses avec peu ou pas d’examen critique et adoptant sa sécurité comme si c’était la nôtre. Déléguer une partie du processus cognitif à l’IA n’est pas une mauvaise chose si cela se fait avec une vision critique, le problème est quand cela se fait sans discernement et sans aucun examen minutieux des réponses.
L’IA nous rend stupides. Une étude du MIT datant de 2025 allait dans ce sens, mais nous avons déjà vu qu’il s’agit d’une affirmation très simpliste de ce qui se passe. La question de savoir si l’IA nous rend plus paresseux et altère notre esprit critique dépend de la manière dont nous l’utilisons. Ce serait comparable à utiliser une calculatrice pour effectuer une opération très complexe ou à l’utiliser pour multiplier cinq par six. Bien utilisée, l’IA peut nous faire gagner beaucoup de temps et peut être un outil très puissant pour façonner des idées complexes, toujours sans perdre notre esprit critique.
La pensée critique s’apprend. C’est là le véritable problème de l’utilisation aveugle de l’IA dans le milieu éducatif. Nous parlons de personnes qui n’ont pas encore développé cette compétence et qui délèguent le raisonnement à un outil externe peuvent les amener à ne jamais l’apprendre. Face à la position prohibitionniste, divers auteurs ont souligné l’urgence d’engager dès le plus jeune âge des conversations avec les étudiants pour leur apprendre à utiliser l’IA de manière critique et responsable.
Images | Simseo avec Freepik
À Simseo | Une université a utilisé une IA pour traquer les étudiants qui utilisaient l’IA. Le résultat fut un désastre prévisible
