L’IA se déplace rapidement. La politique climatique fournit des leçons précieuses sur la façon de le garder en échec
L’intelligence artificielle (IA) pourrait ne pas avoir été créée pour permettre de nouvelles formes de violence sexuelle telles que la pornographie profonde. Mais cela a été un sous-produit malheureux de la technologie en progression rapide.
Ce n’est qu’un exemple des nombreuses utilisations involontaires de l’IA.
Les utilisations prévues de l’IA ne sont pas sans leurs propres problèmes, y compris de graves problèmes de droit d’auteur. Mais au-delà de cela, il y a beaucoup d’expérimentation avec la technologie en progression rapide. Les modèles et le code sont partagés, réutilisés et remixés dans les espaces publics en ligne.
Ces communautés collaboratives et lâchement en réseau – ce que nous appelons les «sous-forces» dans notre article récemment publié dans Nouveaux médias et société– Sont où les utilisateurs expérimentent l’IA plutôt que de le consommer simplement. Ces espaces sont l’endroit où l’IA générative est poussée dans des directions imprévisibles et expérimentales. Et ils montrent pourquoi une nouvelle approche pour réguler l’IA et atténuer ses risques est nécessaire de toute urgence. La politique climatique offre des leçons utiles.
Une approche limitée
À mesure que l’IA avance, il en va de même pour les préoccupations concernant le risque. Les décideurs ont répondu rapidement. Par exemple, la loi sur l’IA de l’Union européenne qui est entrée en vigueur en 2024 classe les systèmes par risque: interdire ceux « inacceptables », régulant les utilisations « à haut risque » et nécessitant une transparence pour les outils à risque à faible risque.
D’autres gouvernements, notamment ceux du Royaume-Uni, des États-Unis et de la Chine – prennent des directions similaires. Cependant, leurs approches réglementaires diffèrent par portée, stade de développement et application.
Mais ces efforts partagent une limitation: ils sont construits autour de l’utilisation prévue, pas les façons désordonnées, créatives et souvent involontaires, l’IA est réellement utilisée, en particulier dans les espaces marginaux.
Alors, quels risques peuvent émerger de la déviance créative dans l’IA? Et les cadres basés sur les risques peuvent-ils gérer les technologies fluides, revixables et en mouvement rapide?
Expérimentation en dehors du règlement
Il y a plusieurs espaces en ligne où les membres du sous-étouffe se rassemblent. Ils incluent GitHub (une plate-forme Web pour le développement de logiciels collaboratifs), Hugging Face (une plate-forme qui propose des modèles d’apprentissage automatique prêts à l’emploi, des ensembles de données et des outils pour que les développeurs créent et lancent facilement les applications AI) et les sous-verddits (communautés individuelles ou forums dans la plate-forme RedDit plus grande).
Ces environnements encouragent l’expérimentation créative avec des cadres génératifs de l’IA extérieurs. Cette expérimentation peut inclure des instructions de modèles pour éviter les comportements prévus – ou faire le contraire. Il peut également inclure la création de mashups ou des variations plus puissantes de l’IA générative en remixant le code du logiciel qui est rendu public pour que quiconque affiche, utilise, modifie et distribue.
Les dommages potentiels de cette expérimentation sont mis en évidence par la prolifération de la pornographie profonde. Il en va de même pour les limites de l’approche actuelle de la régulation des technologies en progression rapide comme l’IA.
DeepFake Technology n’a pas été développé à l’origine pour créer des vidéos et des images pornographiques non consensuelles. Mais c’est finalement ce qui s’est passé au sein des communautés de Sudreddit, à partir de 2017. La pornographie profonde de Fake s’est ensuite rapidement répandue de ce sous-sphérique dans le courant dominant; Une analyse récente de plus de 95 000 vidéos DeepFake en ligne a révélé que 98% d’entre eux étaient de fausses vidéos de pornographie profondes.
Ce n’est qu’en 2019 – des années après la première émergence de la pornographie profonde de Fake – que les tentatives de le réguler ont commencé à émerger à l’échelle mondiale. Mais ces tentatives étaient trop rigides pour capturer les nouvelles façons dont la technologie Deepfake était utilisée d’ici là pour causer des dommages. De plus, les efforts réglementaires étaient sporadiques et incohérents entre les États. Cela a gêné les efforts pour protéger les gens – et les démocraties – des impacts des Forts profonds dans le monde.
C’est pourquoi nous avons besoin d’une réglementation qui peut marcher en étape avec les technologies émergentes et agir rapidement lorsque l’utilisation involontaire prévaut.
Embrasser l’incertitude, la complexité et le changement
Une façon de regarder la gouvernance de l’IA est par le prisme du changement climatique. Le changement climatique est également le résultat de nombreux systèmes interconnectés interagissant d’une manière que nous ne pouvons pas contrôler pleinement – et ses impacts ne peuvent être compris qu’avec un certain degré d’incertitude.
Au cours des trois dernières décennies, les cadres de gouvernance climatique ont évolué pour faire face à ce défi: gérer des risques complexes, émergents et souvent imprévisibles. Et bien que ce cadre n’ait pas encore démontré sa capacité à réduire de manière significative les émissions de gaz à effet de serre, elle a réussi à soutenir l’attention mondiale au fil des ans sur les risques climatiques émergents et leurs impacts complexes.
Dans le même temps, il a fourni un forum où les responsabilités et les solutions potentielles peuvent être débattues publiquement.
Un cadre de gouvernance similaire devrait également être adopté pour gérer la propagation de l’IA. Ce cadre devrait considérer les risques interconnectés causés par des outils d’IA génératifs liés aux plateformes de médias sociaux. Il devrait également considérer les risques en cascade, car le contenu et le code sont réutilisés et adaptés. Et il devrait tenir compte des risques systémiques, tels que la baisse de la confiance du public ou un débat polarisé.
Surtout, ce cadre doit également impliquer des voix diverses. Comme le changement climatique, l’IA génératrice n’affectera pas une seule partie de la société – elle se répercutera dans beaucoup. Et le défi est de savoir comment s’y adapter.
Appliquée à l’IA, les approches de gouvernance du changement climatique pourraient aider à promouvoir une action préemptive à la suite d’une utilisation imprévue (comme dans le cas du porno Deepfake) avant que la question ne soit généralisée.
Éviter les pièges de la gouvernance climatique
Bien que la gouvernance climatique offre un modèle utile pour une réglementation adaptative et flexible, elle apporte également des avertissements importants qui doivent être évités.
La politique climatique a été embourbée par des échappatoires, des intérêts concurrents et l’élaboration des politiques. Des lacunes de l’Australie dans la mise en œuvre de sa stratégie renouvelable aux inversions de politiques en Écosse et à l’embrasure politique aux États-Unis, la mise en œuvre de la politique climatique a souvent été la clé proverbiale dans l’équipement du droit environnemental.
Mais, en ce qui concerne la gouvernance de l’IA, cette impasse au climat trop familière entraîne des leçons importantes pour le domaine de la gouvernance de l’IA.
Premièrement, nous devons trouver des moyens d’aligner la surveillance du public sur l’autorégulation et la transparence de la part des développeurs et des fournisseurs d’IA.
Deuxièmement, nous devons réfléchir aux risques génératifs de l’IA à l’échelle mondiale. La coopération et la coordination internationales sont essentielles.
Enfin, nous devons accepter que le développement et l’expérimentation de l’IA persistent, et artisanat des réglementations qui répondent à cela afin de protéger nos sociétés.
