L’Australie envisage de réglementer l’IA « à haut risque ». Voici comment y parvenir avec succès
Cette semaine, le ministre fédéral de l’Industrie et des Sciences, Ed Husic, a annoncé la réponse du gouvernement australien à la consultation sur une IA sûre et responsable en Australie.
La réponse répond aux commentaires formulés lors de la consultation de l’année dernière sur l’intelligence artificielle (IA). Il a reçu plus de 500 soumissions, soulignant « l’enthousiasme pour les opportunités » des outils d’IA, mais soulevant également des inquiétudes quant aux risques potentiels et aux attentes des Australiens en matière de « garanties réglementaires pour prévenir les dommages ».
Au lieu de promulguer une loi unique sur la réglementation de l’IA comme l’a fait l’Union européenne, le gouvernement australien prévoit de se concentrer sur les domaines à haut risque de mise en œuvre de l’IA, ceux qui présentent le plus grand potentiel de préjudice. Cela pourrait inclure des exemples tels que la discrimination sur le lieu de travail, le système judiciaire, la surveillance ou les voitures autonomes.
Le gouvernement prévoit également de créer un groupe consultatif temporaire d’experts pour soutenir le développement de ces garde-corps.
Comment définirons-nous l’IA « à haut risque » ?
Même si cette réponse proportionnelle peut être accueillie favorablement par certains, se concentrer sur les zones à haut risque avec seulement un organisme consultatif temporaire soulève d’importantes questions :
- Comment les zones à haut risque seront-elles définies – et qui prend cette décision ?
- Les applications d’IA à faible risque devraient-elles être soumises à une réglementation similaire, alors que certaines interventions (telles que l’exigence de filigranes pour le contenu généré par l’IA) pourraient largement lutter contre la désinformation ?
- Sans un conseil consultatif permanent, comment les organisations peuvent-elles anticiper les risques liés aux nouvelles technologies d’IA et aux nouvelles applications des outils d’IA à l’avenir ?
L’évaluation du « risque » lié à l’utilisation des nouvelles technologies n’est pas nouvelle. Nous disposons de nombreux principes, lignes directrices et réglementations existants qui peuvent être adaptés pour répondre aux préoccupations concernant les outils d’IA.
Par exemple, de nombreux secteurs australiens sont déjà très réglementés pour répondre aux problèmes de sécurité, comme celui des véhicules et des dispositifs médicaux.
Dans toutes les recherches impliquant des personnes, les chercheurs australiens doivent se conformer aux directives nationales où les pratiques d’évaluation des risques sont bien définies :
- identifier les risques et les personnes susceptibles de subir un préjudice ;
- évaluer la probabilité, la gravité et l’ampleur du risque ;
- envisager des stratégies pour minimiser, atténuer et/ou gérer les risques ;
- identifier les avantages potentiels et qui pourrait en bénéficier ; et
- évaluer les risques et déterminer si les risques sont justifiés par les avantages potentiels.
Cette évaluation des risques est effectuée avant la réalisation de la recherche, avec un examen et une surveillance importants par les comités d’éthique de la recherche sur les humains. Une approche similaire pourrait être utilisée pour l’évaluation des risques liés à l’IA.
L’IA est déjà dans nos vies
L’un des problèmes majeurs de la réglementation de l’IA réside dans le fait que de nombreux outils sont déjà utilisés dans les foyers et sur les lieux de travail australiens, mais sans garde-fous réglementaires pour gérer les risques.
Un récent rapport YouGov a révélé que 90 % des travailleurs australiens utilisaient des outils d’IA pour leurs tâches quotidiennes, malgré de sérieuses limitations et défauts. Les outils d’IA peuvent « halluciner » et présenter de fausses informations aux utilisateurs. Le manque de transparence sur les données de formation soulève des inquiétudes quant aux préjugés et à la violation du droit d’auteur.
Les consommateurs et les organisations ont besoin de conseils sur l’adoption appropriée des outils d’IA pour gérer les risques, mais de nombreuses utilisations se situent en dehors des zones « à haut risque ».
Définir les paramètres « à haut risque » est un défi. Le concept de « risque » s’inscrit dans un spectre et n’est pas absolu. Le risque n’est pas déterminé par un outil lui-même ni par le contexte dans lequel il est utilisé. Le risque découle de facteurs contextuels qui créent un potentiel de préjudice.
Par exemple, même si les aiguilles à tricoter présentent peu de risques dans la vie de tous les jours, il est déconseillé aux tricoteurs de transporter des aiguilles en métal dans les avions. La sécurité aéroportuaire considère ces outils comme « dangereux » et restreint leur utilisation dans ce contexte pour éviter tout dommage.
Pour identifier les environnements « à haut risque », nous devons comprendre le fonctionnement des outils d’IA. Sachant que les outils d’IA peuvent conduire à une discrimination fondée sur le sexe dans les pratiques de recrutement, cela signifie que toutes les organisations doivent gérer les risques liés au recrutement. Ne pas comprendre les limites de l’IA, comme l’avocat américain qui s’est fié à la fausse jurisprudence générée par ChatGPT, met en évidence le risque d’erreur humaine dans l’utilisation des outils d’IA.
Les risques posés par les personnes et les organisations lors de l’utilisation des outils d’IA doivent être gérés parallèlement aux risques posés par la technologie elle-même.
Qui conseillera le gouvernement ?
Le gouvernement note dans sa réponse que l’organisme consultatif d’experts sur les risques liés à l’IA aura besoin de « une composition et d’une expertise diversifiées provenant de l’industrie, du monde universitaire, de la société civile et de la profession juridique ».
Au sein de l’industrie, les membres devraient inclure divers secteurs (tels que les soins de santé, les banques, les forces de l’ordre) avec une représentation des grandes organisations et des petites et moyennes entreprises.
Au sein du monde universitaire, les membres devraient inclure non seulement des experts en informatique en IA, mais également des spécialistes des sciences sociales possédant une expertise en matière de comportement des consommateurs et des organisations. Ils peuvent donner des conseils sur l’analyse des risques, l’éthique et les préoccupations des gens lorsqu’il s’agit d’adopter une nouvelle technologie, y compris les problèmes de désinformation, de confiance et de confidentialité.
Le gouvernement doit également décider comment gérer les futurs risques potentiels liés à l’IA. Un organisme consultatif permanent pourrait gérer les risques liés aux technologies futures et aux nouvelles utilisations des outils existants.
Un tel organisme pourrait également conseiller les consommateurs et les lieux de travail sur les applications de l’IA présentant des niveaux de risque moindres, en particulier là où il existe peu ou pas de réglementation.
La désinformation est un domaine clé dans lequel les limites des outils d’IA sont connues, exigeant que les gens possèdent de solides compétences en matière de pensée critique et de maîtrise de l’information. Par exemple, exiger de la transparence dans l’utilisation des images générées par l’IA peut garantir que les consommateurs ne soient pas induits en erreur.
Pourtant, l’accent actuel du gouvernement en matière de transparence se limite aux contextes « à haut risque ». C’est un début, mais davantage de conseils – et davantage de réglementation – seront nécessaires.
