Les experts préconisent une approche systémique complexe pour évaluer les risques liés à l’IA
Alors que l’intelligence artificielle imprègne de plus en plus tous les aspects de nos vies, les experts s’inquiètent de plus en plus de ses dangers. Dans certains cas, les risques sont pressants, dans d’autres, ils n’apparaîtront que dans plusieurs mois, voire plusieurs années.
Les scientifiques soulignent dans Transactions philosophiques de la Royal Society A Sciences mathématiques, physiques et techniques qu’une approche cohérente pour comprendre ces menaces reste difficile à atteindre. Le document s'intitule « Perspective des systèmes complexes dans l'évaluation des risques liés à l'IA ».
Ils appellent à une perspective systémique complexe pour mieux évaluer et atténuer ces risques, en particulier à la lumière des incertitudes à long terme et des interactions complexes entre l’IA et la société.
« Comprendre les risques de l'IA nécessite de reconnaître l'interaction complexe entre la technologie et la société. Il s'agit de naviguer dans les systèmes complexes et co-évolutifs qui façonnent nos décisions et nos comportements », explique Fariba Karimi, co-auteur de l'article. Karimi dirige l'équipe de recherche sur l'équité algorithmique au Complexity Science Hub (CSH) et est professeur de science des données sociales à la TU Graz.
« Nous ne devrions pas seulement discuter des technologies à déployer et comment, mais aussi de la manière d'adapter le contexte social pour capitaliser sur les possibilités positives. Les possibilités et les risques de l'IA devraient probablement être pris en compte dans les débats sur, par exemple, la politique économique », ajoute CSH. scientifique Dániel Kondor, premier auteur de l'étude.
Des risques plus larges et à long terme
Les cadres actuels d'évaluation des risques se concentrent souvent sur des préjudices immédiats et spécifiques, tels que les préjugés et les problèmes de sécurité, selon les auteurs de l'article. « Ces cadres négligent souvent les risques systémiques plus larges et à long terme qui pourraient émerger du déploiement généralisé des technologies d'IA et de leur interaction avec le contexte social dans lequel elles sont utilisées », explique Kondor.
« Dans cet article, nous avons essayé d'équilibrer les perspectives à court terme sur les algorithmes avec des visions à long terme de la manière dont ces technologies affectent la société. Il s'agit de donner un sens aux conséquences immédiates et systémiques de l'IA », ajoute Kondor.
Que se passe-t-il dans la vraie vie
À titre d'étude de cas pour illustrer les risques potentiels des technologies d'IA, les scientifiques expliquent comment un algorithme prédictif a été utilisé pendant la pandémie de COVID-19 au Royaume-Uni pour les examens scolaires. La nouvelle solution était « présumée plus objective et donc plus juste » [than asking teachers to predict their students’ performance]en s'appuyant sur une analyse statistique des performances des étudiants des années précédentes », selon l'étude.
Cependant, lorsque l’algorithme a été mis en pratique, plusieurs problèmes sont apparus. « Une fois l'algorithme de notation appliqué, les inégalités sont devenues criantes », observe Valérie Hafez, chercheuse indépendante et co-auteure de l'étude.
« Les élèves issus de communautés défavorisées ont été les plus touchés par les vains efforts visant à contrer l'inflation des notes, mais même dans l'ensemble, 40 % des élèves ont reçu des notes inférieures à ce à quoi ils auraient raisonnablement pu s'attendre. »
Hafez rapporte que de nombreuses réponses dans le rapport de consultation indiquent que le risque perçu comme important par les enseignants – l’effet à long terme d’une note inférieure à celle méritée – était différent du risque perçu par les concepteurs de l’algorithme. Ces derniers étaient préoccupés par l'inflation des notes, la pression qui en résulte sur l'enseignement supérieur et le manque de confiance dans les capacités réelles des étudiants.
L'ampleur et la portée
Ce cas démontre plusieurs problèmes importants qui se posent lors du déploiement de solutions algorithmiques à grande échelle, soulignent les scientifiques.
« Une chose à laquelle nous pensons qu'il faut être attentif est l'échelle – et la portée – car les algorithmes évoluent : ils se déplacent bien d'un contexte à l'autre, même si ces contextes peuvent être très différents. Le contexte original de la création ne disparaît pas simplement, il se superpose plutôt à tous ces autres contextes », explique Hafez.
« Les risques à long terme ne sont pas une combinaison linéaire de risques à court terme. Ils peuvent augmenter de façon exponentielle avec le temps. Cependant, grâce aux modèles informatiques et aux simulations, nous pouvons fournir des informations pratiques pour mieux évaluer ces risques dynamiques », ajoute Karimi.
Modèles informatiques et participation du public
C’est l’une des orientations proposées par les scientifiques pour comprendre et évaluer les risques associés aux technologies d’IA, tant à court qu’à long terme.
« Les modèles informatiques, comme ceux évaluant l'effet de l'IA sur la représentation des minorités dans les réseaux sociaux, peuvent démontrer comment les biais des systèmes d'IA conduisent à des boucles de rétroaction qui renforcent les inégalités sociétales », explique Kondor. De tels modèles peuvent être utilisés pour simuler des risques potentiels, offrant des informations difficiles à tirer des méthodes d’évaluation traditionnelles.
En outre, les auteurs de l'étude soulignent l'importance d'impliquer des profanes et des experts de divers domaines dans le processus d'évaluation des risques. Les groupes de compétences (petites équipes hétérogènes qui rassemblent des points de vue variés) peuvent être un outil clé pour favoriser la participation démocratique et garantir que les évaluations des risques sont éclairées par les personnes les plus touchées par les technologies de l'IA.
« Une question plus générale est la promotion de la résilience sociale, qui aidera les débats et la prise de décision liés à l'IA à mieux fonctionner et à éviter les pièges. À son tour, la résilience sociale peut dépendre de nombreuses questions sans rapport (ou du moins pas directement liées) aux technologies artificielles. intelligence », réfléchit Kondor. Le renforcement des formes participatives de prise de décision peut être un élément important du renforcement de la résilience.
« Je pense qu'une fois que l'on commence à considérer les systèmes d'IA comme sociotechniques, on ne peut pas séparer les personnes affectées par les systèmes d'IA des aspects « techniques ». Les séparer du système d'IA leur enlève la possibilité de façonner les infrastructures de classification qui leur sont imposées. , refusant aux personnes concernées le pouvoir de participer à la création de mondes adaptés à leurs besoins », explique Hafez, responsable de la politique en matière d'IA à la Chancellerie fédérale autrichienne.