Un professeur discute des risques auxquels les organisations internationales sont confrontées en matière d'IA et de protection des données
Les décideurs politiques du monde entier sont aux prises avec les vastes implications des progrès de la technologie de l’intelligence artificielle, notamment la manière dont ces outils seront utilisés par les organisations internationales.
Aaron Martin, professeur adjoint à la School of Data Science de l'Université de Virginie, a récemment été invité à partager ses idées sur ce sujet crucial lors d'une table ronde lors de l'atelier des organisations internationales sur la protection des données, qui s'est tenu à la Banque mondiale à Washington et co-organisé par le Contrôleur européen de la protection des données. Le rassemblement de cette année marquait la première fois que la conférence avait lieu en dehors de l'Europe.
Martin, qui a rejoint la faculté de la School of Data Science en 2023 avec une nomination conjointe au Département d'études des médias de l'UVA, se spécialise dans la gouvernance des données et dans la manière dont les organismes internationaux établissent une politique transnationale, notamment en ce qui concerne la technologie.
Lors de la table ronde, Martin a partagé ses réflexions sur les défis auxquels les institutions mondiales sont confrontées en matière de protection des données et sur les raisons pour lesquelles il est essentiel qu'elles s'efforcent de les relever.
Il a récemment parlé de son expérience lors de la conférence et de son point de vue sur certaines des nombreuses facettes de ce problème mondial en évolution rapide.
Votre panel s’est concentré sur l’utilisation de l’IA par les organisations internationales. D’une manière générale, quelle est votre impression de l’ampleur de l’utilisation des systèmes d’IA par ces agences ?
Il suffit de dire que les organisations internationales – y compris celles qui étaient représentées à l’atelier de Washington – sont très diverses en termes de missions et de mandats.
Celles-ci vont des agences des Nations Unies ayant des missions de développement ou humanitaires à des organisations comme l'OTAN ou Interpol, qui facilitent la coopération internationale en matière de sécurité et d'application de la loi. Chacun d’eux explore l’utilisation de l’IA de différentes manières, et j’ai l’impression qu’actuellement, leur approche est prudente, ce qui est encourageant.
Une caractéristique essentielle des OI est qu’elles bénéficient de ce que l’on appelle des immunités et privilèges juridiques, qui contribuent à garantir leur indépendance et leur fonctionnement efficace. En pratique, cela signifie que les lois et réglementations nationales en matière de protection des données (comme le règlement général sur la protection des données) et d'IA (comme la loi européenne sur l'IA) ne s'appliqueront pas aux OI comme elles le font pour les organismes gouvernementaux ou les entreprises commerciales.
Cela devient un véritable problème de gouvernance : comment garantir que les OI traitent les données et utilisent les nouvelles technologies de manière responsable ? La plupart de ces organisations ont établi des politiques en matière de confidentialité et de protection des données, mais l’IA introduit une nouvelle série de défis auxquels elles doivent faire face. Le but de cet atelier est que les organisations travaillent ensemble pour développer de bonnes orientations et pratiques pour les données et, de plus en plus, pour l'IA.
La discussion a porté en partie sur les risques de ces systèmes. Quelles devraient être les priorités des organisations internationales lorsqu’il s’agit d’atténuer les risques liés à l’IA pour les nombreux groupes concernés par leur travail ?
Récemment, j'ai été frappé par des reportages sur les défis auxquels les entreprises d'IA sont confrontées en termes d'accès à de nouvelles sources de données de qualité. On craint de plus en plus que les modèles d’IA deviennent moins utiles et moins fiables s’ils ne sont pas alimentés par de plus en plus de données – ces modèles ont « faim », comme l’a décrit l’un de mes co-panélistes. On craint que les modèles d'IA ne commencent à s'effondrer s'ils sont formés sur trop de données synthétiques (c'est-à-dire fausses) ou générées par l'IA, de sorte que les entreprises d'IA se bousculent pour trouver de nouveaux partenaires de données.
Lors de l'atelier, j'ai concentré mon intervention sur la sensibilisation aux divers risques liés au partage excessif de données par les OI avec les entreprises d'IA. Les OI disposent de données incroyablement riches et diverses, par exemple sur les indicateurs de développement, les conflits mondiaux et les affaires humanitaires.
Ils disposent également de données provenant de régions du monde qui sont très sous-représentées en ligne, où les sociétés d’IA se tournent généralement pour récupérer des données. Les OI doivent réfléchir attentivement à la manière de garantir la confidentialité de ces données et de prendre des mesures pour les protéger contre toute utilisation abusive et les modèles commerciaux toxiques de l’IA.
Les organisations internationales, comme vous l’avez mentionné, ne constituent pas un monolithe et le public de votre panel était composé de représentants de divers groupes. Dans quelle mesure les différents types d’organisations internationales devraient-ils aborder ces questions différemment en fonction de leur mission ?
Il y aura des défis communs : chaque OI dispose d'un service des ressources humaines, par exemple, de sorte que les applications d'entreprise existent dans les OI comme dans n'importe quelle autre organisation. Et de nombreuses OI – sinon la plupart – ont des considérations budgétaires importantes qui façonneront et éventuellement limiteront leur utilisation des outils d’IA, y compris l’IA générative.
Ce qui m'intéresse particulièrement, y compris dans mes recherches, c'est la manière dont l'utilisation de l'IA par les OI humanitaires peut avoir un impact sur les bénéficiaires de l'aide, appelés bénéficiaires. Les OI devraient-elles s’appuyer exclusivement sur l’IA pour prendre des décisions concernant les bénéficiaires de l’aide alimentaire, par exemple ? Quels sont les risques de le faire ? Il s’agit de questions difficiles qui nécessitent l’engagement d’un large éventail de parties prenantes, y compris celles directement touchées par ces décisions.
Vous avez beaucoup travaillé sur l'impact de la technologie sur les communautés historiquement marginalisées, en particulier les réfugiés. En ce qui concerne spécifiquement les organisations humanitaires et AI, quelles sont vos plus grandes préoccupations ?
Les organisations humanitaires sont généralement très réfléchies quant à leur approche de l’IA. « Ne pas nuire au numérique » est leur mantra, ce qui signifie qu'ils sont très sensibles aux dommages potentiels et réels que l'IA pourrait infliger aux réfugiés et aux autres personnes touchées par les conflits et les crises.
Je m'inquiète de ce que l'on appelle « l'huile de serpent de l'IA » dans le secteur de l'aide, et des organisations qui se voient vendre une technologie qui ne peut tout simplement pas répondre au battage médiatique. Il est important que nous continuions à collaborer avec ces organisations pour les aider à comprendre les possibilités et les risques.
Quels ont été certains de vos principaux points à retenir des autres intervenants de votre panel et de tous ceux que vous avez entendus lors de la conférence ?
Eh bien, c'était la règle de Chatham House, donc je devrais être prudent ici, mais j'ai été assez impressionné par la réflexion stratégique menée par les OI pour intégrer l'IA dans leurs organisations. J'ai assisté à d'autres conférences où j'ai l'impression que les gens recherchent sans réfléchir des cas d'utilisation de l'IA, et c'est généralement la mauvaise approche.
Un autre panéliste a expliqué comment son organisation utilise l'IA pour documenter les violations des droits de l'homme dans le monde, ce qui est une application fascinante et témoigne du potentiel de l'IA d'avoir un impact positif dans le monde.