Comment créer un groupe de travail sur l’IA dans votre école
Un consensus émergeant parmi les technologues scolaires est que l’intelligence artificielle générative (GenAI) est irrépressible et que le processus pour l’adopter doit donc commencer quelque part. Une approche qui a fait des progrès au District scolaire unifié de La Cañada (LCUSD) en Californie : former un groupe de travail composé de parties prenantes pour traiter des technologies émergentes.
Expliquant son groupe de travail à une salle de ses pairs jeudi lors de la conférence California IT in Education à Sacramento, Jamie Lewsadder, surintendant associé des services technologiques du LCUSD, a déclaré que l’idée était d’avoir une conversation ouverte sur la position du district et éventuellement d’atelier sur des directives sûres et éthiques. pour utiliser GenAI, ce que les enfants doivent savoir à ce sujet et quelles devraient être les responsabilités respectives des élèves, des enseignants et des parents. Pour ce faire, elle souhaitait profiter des réflexions et de l’expertise d’autres personnes, non seulement des professeurs, mais aussi des parents, des étudiants et des membres de la communauté.
« J’ai envoyé une note à nos familles et leur ai dit : ‘Je recherche des parents qui souhaitent s’impliquer dans un conseil technologique émergent.’ Je ne l’ai pas volontairement nommé « groupe de travail sur l’IA », je l’ai appelé un conseil technologique émergent, avec l’idée que cela va changer, donc quoi qu’il arrive ensuite, ce groupe sera en place », a-t-elle déclaré. « Je dis à toutes mes équipes qu’il y a un astérisque dans tout ce que nous faisons. Soyez simplement prêts, rien n’est gravé dans le marbre. En raison de la nature du changement, nous devons simplement continuer à être prêts et nous accrocher aux montagnes russes. … Il convient d’être sceptique, terrifié et impressionné en même temps. »
Lewsadder a déclaré que la réponse a été massive et variée, y compris des mamans inquiètes, un père qui a obtenu son doctorat. en intelligence artificielle il y a 30 ans, et même un élève de neuvième année autiste. En plus de permettre de trouver des réponses aux questions imminentes, elle a déclaré que cela a également contribué à convaincre les dirigeants hésitants du district de se joindre à GenAI.
« Le conseil technologique émergent a beaucoup aidé, car l’un des parents a dit – et je peux le citer parce que c’est l’autocollant de notre groupe de travail – ‘Nous sommes tous impliqués. Commençons’, et c’est ce qu’il faut retenir », a-t-elle déclaré. dit. « Encore une fois, avec la sécurité, les garde-corps, toutes ces pièces, mais nous avions besoin de quelqu’un à l’extérieur, et cette influence a vraiment eu un impact sur la pièce. »
Lewsadder a cité l’éducation spécialisée comme un département qui pourrait être un point d’entrée clé pour la discussion ou l’ouverture d’esprit sur les nouvelles technologies dans certains districts.
« Je sais que dans notre district, nos enfants en éducation spécialisée ont été les premiers à avoir un iPad, et c’étaient des enfants qui avaient l’air un peu différents parce qu’ils étaient les seuls dans la pièce à avoir de la technologie », a-t-elle déclaré. « Je m’inquiète du fait que les enseignants suppriment la technologie pour gérer l’IA, et maintenant, tout à coup, nos enfants en éducation spécialisée qui n’ont plus de technologie inscrite dans leurs IEP (programmes d’éducation individualisés) perdent un aménagement, c’est donc ce que j’ai dit aux enseignants, c’est : « Vous ne pouvez pas revenir au papier. »
Lewsadder a déclaré qu’elle avait également créé une chaîne AI Slack dans l’espace de travail de son équipe technique afin que toute personne intéressée puisse publier des informations, continuer à apprendre et inviter des enseignants.
« En technologie, nous avons appris qu’il n’est pas nécessaire de connaître toutes les réponses, il faut savoir comment les obtenir », a-t-elle déclaré. « Si nous pouvons transmettre ce message à nos éducateurs, ils se sentiront plus à l’aise avec les outils technologiques, c’est donc une autre chose à laquelle il faut penser. »
Plusieurs informations utiles ont émergé, notamment le fait que de nombreuses personnes manquent de connaissances générales sur la confidentialité des données avec GenAI. Lewsadder a déclaré que de nombreux étudiants ont été choqués d’apprendre que s’ils avaient saisi leur curriculum vitae dans ChatGPT, ils avaient divulgué ces informations personnelles. Cela l’a incitée à envoyer des courriels aux familles et à encourager une communication régulière sur ces questions au sein du personnel.
« C’est un message rapide. Je pense qu’il suffit de faire des annonces PA, de l’envoyer aux parents, les enseignants peuvent dire ces choses – il n’est pas nécessaire que ce soit un changement révolutionnaire, mais faire passer le message sur le risque est vraiment important. pour les enfants », a-t-elle déclaré.
Jennette Vanderpool, stratège en éducation chez CDW Education, fournisseur de services de technologie éducative, a déclaré qu’une autre raison de maintenir une conversation ouverte entre les professeurs est qu’ils utilisent des outils différents et que certains ont de meilleures restrictions de contenu que d’autres. Par exemple, ChatGPT donnera à un utilisateur la recette d’un cocktail Molotov, contrairement à Merlyn Mind.
« Nous attendons vraiment que Google et Microsoft s’engagent dans le volet sécurité éducative », a-t-elle déclaré.
Vanderpool a ajouté que les enseignants doivent connaître ces éléments afin de pouvoir définir leurs propres règles de classe en conséquence : définir les outils qu’ils souhaitent utiliser, modifier le langage de leur programme avec des directives de base et enseigner aux étudiants les règles de citation APA et MLA pour l’IA générative.
« Nous ne pouvons pas dire aux enseignants comment enseigner, nous ne pouvons pas leur dire comment noter, mais si nous créons une politique autour de l’utilisation de l’IA, il incombera alors à l’enseignant de définir la manière dont il souhaite que cela soit écrit dans ses programmes. » dit-elle.
Paradoxalement, malgré tous les risques, un autre obstacle majeur à l’adoption de GenAI est la tendance des étudiants à la voir sous un angle négatif, ce qui ne les aidera pas à entrer dans un marché du travail qui a intégré la technologie.
« Les enfants ne voient pas vraiment cela comme quelque chose qu’ils sont censés faire, donc ils ont cette connotation négative, et je pense que c’est une chose que nous devons tous vraiment lutter pour briser », a déclaré Lewsadder.