L'IA fait maintenant partie de notre monde. Les diplômés universitaires devraient savoir comment l'utiliser de manière responsable
L'intelligence artificielle devient rapidement une partie quotidienne des vies. Beaucoup d'entre nous l'utilisent sans même se rendre compte, qu'il s'agisse d'écrire des e-mails, de trouver une nouvelle émission de télévision ou de gérer des appareils intelligents dans nos maisons.
Il est également de plus en plus utilisé dans de nombreux contextes professionnels, du recrutement au soutien aux diagnostics de santé et à la surveillance des progrès des élèves à l'école.
Mais en dehors d'une poignée de programmes STEM axés sur l'informatique et d'autres STEM, la plupart des étudiants universitaires australiens ne reçoivent pas de frais de scolarité officiels dans la façon d'utiliser l'IA de manière critique, éthique ou responsable.
Voici pourquoi c'est un problème et ce que nous pouvons faire à la place.
Utilisation de l'IA dans les universités jusqu'à présent
Un nombre croissant d'universités australiennes permettent désormais aux étudiants d'utiliser l'IA dans certaines évaluations, à condition que l'utilisation soit reconnue de manière appropriée.
Mais cela n'apprend pas aux étudiants comment ces outils fonctionnent ou quelle utilisation responsable implique.
L'utilisation d'IA n'est pas aussi simple que de saisir des questions dans une fonction de chat. Il existe des problèmes éthiques largement reconnus autour de son utilisation, y compris les biais et la désinformation. Il est essentiel de comprendre pour les étudiants à utiliser l'IA de manière responsable dans leur vie professionnelle.
Ainsi, tous les étudiants devraient obtenir une compréhension de base de l'IA, ses limites, le rôle du jugement humain et à quoi ressemble l'utilisation responsable dans leur domaine particulier.
Nous avons besoin que les étudiants soient conscients des biais dans les systèmes d'IA. Cela comprend la façon dont leurs propres biais pourraient façonner la façon dont ils utilisent l'IA (les questions qu'ils posent et comment ils interprètent sa sortie), parallèlement à une compréhension des implications éthiques plus larges de l'utilisation de l'IA.
Par exemple, les données et l'outil d'IA protègent-ils la confidentialité des gens? L'IA a-t-elle fait une erreur? Et si oui, quelle responsabilité est-ce?
Et l'éthique de l'IA?
Le côté technique de l'IA est couvert de nombreux degrés de tige. Ces diplômes, ainsi que les disciplines de philosophie et de psychologie, peuvent également examiner les questions éthiques autour de l'IA. Mais ces questions ne font pas partie de l'enseignement universitaire grand public.
C'est une préoccupation. Lorsque les futurs avocats utilisent une IA prédictive pour rédiger des contrats ou que les diplômés commerciaux utilisent l'IA pour l'embauche ou le marketing, ils auront besoin de compétences en raisonnement éthique.
Les problèmes éthiques dans ces scénarios pourraient inclure des biais déloyaux, comme l'IA recommandant des candidats en fonction du sexe ou de la race. Il pourrait inclure des problèmes liés à un manque de transparence, comme ne pas savoir comment un système d'IA a pris une décision juridique. Les étudiants doivent être en mesure de repérer et de remettre en question ces risques avant de nuire.
Dans les soins de santé, les outils d'IA soutiennent déjà le diagnostic, le triage des patients et les décisions de traitement.
Alors que l'IA devient de plus en plus ancrée dans la vie professionnelle, le coût de l'utilisation non critique augmente également, des résultats biaisés aux dommages réels.
Par exemple, si un enseignant s'appuie sur l'IA négligemment pour rédiger un plan de cours, les élèves pourraient apprendre une version de l'histoire qui est biaisée ou tout simplement fausse. Un avocat qui a sur-lies sur l'IA pourrait soumettre un document judiciaire défectueux, mettant en danger le dossier de son client.
Comment pouvons-nous faire cela?
Il y a des exemples internationaux que nous pouvons suivre. L'Université du Texas à Austin et l'Université d'Édimbourg offrent toutes deux des programmes en éthique et en IA. Cependant, les deux sont actuellement destinés aux étudiants diplômés. Le programme de l'Université du Texas est axé sur l'enseignement des étudiants STEM sur l'éthique de l'IA, tandis que le programme de l'Université d'Édimbourg a un objectif plus large et interdisciplinaire.
La mise en œuvre de l'éthique de l'IA dans les universités australiennes nécessitera une réforme réfléchie des programmes. Cela signifie constituer des équipes d'enseignement interdisciplinaires qui combinent l'expertise de la technologie, du droit, de l'éthique et des sciences sociales. Cela signifie également réfléchir sérieusement à la façon dont nous engageons les étudiants dans ce contenu grâce à des modules de base, des capacités de diplômés ou même une formation obligatoire.
Il faudra également des investissements dans le développement du personnel académique et de nouvelles ressources pédagogiques qui rendent ces concepts accessibles et pertinents pour différentes disciplines.
Le soutien du gouvernement est essentiel. Des subventions ciblées, une orientation nationale claire et des ressources pédagogiques partagées à l'échelle nationale pourraient accélérer le changement. Les décideurs pourraient considérer le positionnement des universités comme des «pôles d'IA éthiques». Cela s'aligne sur le rapport d'accusation de l'Université australien commandée par le gouvernement 2024, qui a appelé à renforcer la capacité de répondre aux demandes de l'ère numérique.
Les étudiants d'aujourd'hui sont les décideurs de demain. S'ils ne comprennent pas les risques de l'IA et son potentiel d'erreur, de biais ou de menaces pour la vie privée, nous en supporterons tous les conséquences. Les universités ont la responsabilité du public pour s'assurer que les diplômés savent comment utiliser l'IA de manière responsable et comprendre pourquoi leurs choix comptent.
