Des chercheurs mesurent le consensus mondial sur l’utilisation éthique de l’IA
Pour examiner l’état mondial de l’éthique de l’IA, une équipe de chercheurs du Brésil a réalisé une revue systématique et une méta-analyse des lignes directrices mondiales pour l’utilisation de l’IA. Parution le 13 octobre dans la revue Motifs, les chercheurs ont constaté que, même si la plupart des lignes directrices valorisaient la confidentialité, la transparence et la responsabilité, très peu valorisaient la véracité, la propriété intellectuelle ou les droits des enfants. En outre, la plupart des lignes directrices décrivaient des principes et des valeurs éthiques sans proposer de méthodes pratiques pour les mettre en œuvre et sans promouvoir une réglementation juridiquement contraignante.
« L’établissement de lignes directrices éthiques et de structures de gouvernance claires pour le déploiement de l’IA dans le monde est la première étape pour promouvoir la confiance, atténuer ses risques et garantir que ses avantages sont équitablement répartis », déclare le spécialiste des sciences sociales et co-auteur James William Santos. de l’Université Pontificale Catholique de Rio Grande do Sul.
« Les travaux antérieurs étaient principalement centrés sur des documents nord-américains et européens, ce qui nous a incités à rechercher et à inclure activement les perspectives de régions telles que l’Asie, l’Amérique latine, l’Afrique et au-delà », explique l’auteur principal Nicholas Kluge Corrêa de l’Université pontificale catholique de Rio Grande. do Sul et l’Université de Bonn.
Pour déterminer s’il existe un consensus mondial concernant le développement et l’utilisation éthiques de l’IA, et pour aider à orienter un tel consensus, les chercheurs ont mené une revue systématique des lignes directrices politiques et éthiques publiées entre 2014 et 2022.
À partir de là, ils ont identifié 200 documents liés à l’éthique et à la gouvernance de l’IA provenant de 37 pays et six continents et rédigés ou traduits en cinq langues différentes (anglais, portugais, français, allemand et espagnol). Ces documents comprenaient des recommandations, des guides pratiques, des cadres politiques, des repères juridiques et des codes de conduite.
Ensuite, l’équipe a mené une méta-analyse de ces documents pour identifier les principes éthiques les plus courants, examiner leur répartition mondiale et évaluer les préjugés en termes de types d’organisations ou de personnes produisant ces documents.
Les chercheurs ont constaté que les principes les plus courants étaient la transparence, la sécurité, la justice, la confidentialité et la responsabilité, qui figuraient respectivement dans 82,5 %, 78 %, 75,5 %, 68,5 % et 67 % des documents.
Les principes les moins courants étaient les droits du travail, la véracité, la propriété intellectuelle et les droits des enfants/adolescents, qui apparaissent dans 19,5%, 8,5%, 7% et 6% des documents, et les auteurs soulignent que ces principes méritent plus d’attention. Par exemple, la véracité – l’idée selon laquelle l’IA devrait fournir des informations véridiques – devient de plus en plus pertinente avec la sortie de technologies d’IA générative comme ChatGPT. Et puisque l’IA a le potentiel de déplacer des travailleurs et de changer notre façon de travailler, des mesures pratiques visent à éviter le chômage de masse ou les monopoles.
La plupart (96 %) des lignes directrices étaient « normatives » – décrivant les valeurs éthiques qui devraient être prises en compte lors du développement et de l’utilisation de l’IA – tandis que seulement 2 % recommandaient des méthodes pratiques de mise en œuvre de l’éthique de l’IA, et seulement 4,5 % proposaient des formes juridiquement contraignantes de réglementation de l’IA.
« Il s’agit principalement d’engagements volontaires qui disent : ‘Voici certains principes que nous considérons comme importants’, mais ils manquent de mise en œuvre pratique et d’exigences juridiques », explique Santos. « Si vous essayez de créer des systèmes d’IA ou si vous utilisez des systèmes d’IA dans votre entreprise, vous devez respecter des éléments tels que la confidentialité et les droits des utilisateurs, mais la manière de procéder constitue une zone grise qui n’apparaît pas dans ces directives. »
Les chercheurs ont également identifié plusieurs biais quant à l’endroit où ces lignes directrices ont été produites et qui les a produites. Les chercheurs ont noté une disparité entre les sexes en termes de paternité. Bien que 66 % des échantillons ne contenaient aucune information sur la paternité, les auteurs des documents restants portaient plus souvent des noms masculins (549 = 66 % d’hommes, 281 = 34 % de femmes).
Géographiquement, la plupart des lignes directrices provenaient de pays d’Europe occidentale (31,5 %), d’Amérique du Nord (34,5 %) et d’Asie (11,5 %), tandis que moins de 4,5 % des documents provenaient d’Amérique du Sud, d’Afrique et d’Océanie réunies. Certains de ces déséquilibres dans la distribution peuvent être dus à des limitations linguistiques et à l’accès du public, mais l’équipe affirme que ces résultats suggèrent que de nombreuses régions du Sud sont sous-représentées dans le discours mondial sur l’éthique de l’IA.
Dans certains cas, cela inclut des pays fortement impliqués dans la recherche et le développement en IA, comme la Chine, dont les résultats en matière de recherche liée à l’IA ont augmenté de plus de 120 % entre 2016 et 2019.
« Notre recherche démontre et renforce notre appel au Sud global à se réveiller et notre plaidoyer pour que le Nord global soit prêt à nous écouter et à nous accueillir », déclare la co-auteure Camila Galvão de l’Université pontificale catholique de Rio Grande do Sul. « Nous ne devons pas oublier que nous vivons dans un monde pluriel, inégal et diversifié. Nous devons nous souvenir des voix qui, jusqu’à présent, n’ont pas eu l’occasion de revendiquer leurs préférences, d’expliquer leurs contextes et peut-être de nous dire quelque chose que nous je ne sais toujours pas. »
En plus d’intégrer davantage de voix, les chercheurs affirment que les efforts futurs devraient se concentrer sur la manière de mettre en pratique les principes de l’éthique de l’IA. « La prochaine étape consiste à établir un pont entre les principes abstraits de l’éthique et le développement pratique des systèmes et applications d’IA », déclare Santos.