Les enjeux de la régulation de l’intelligence artificielle
En 1950, Alan Turing demandait : « Les machines peuvent-elles penser ? » Plus de 70 ans plus tard, les progrès de l’intelligence artificielle créent des possibilités passionnantes et soulèvent des questions sur ses pièges potentiels.
Un récent décret émis par le président Joe Biden vise à établir « de nouvelles normes en matière de sûreté et de sécurité de l’IA » tout en répondant aux préoccupations des consommateurs en matière de confidentialité et en promouvant l’innovation. Les experts de Georgia Tech ont examiné les éléments clés de la commande et donnent leur avis sur sa portée et les prochaines étapes.
Une histoire de précaution
L’ordonnance appelle au développement de normes, d’outils et de tests pour garantir une utilisation sûre de l’IA. Des escroqueries vocales aux campagnes de phishing en passant par les menaces à plus grande échelle, les dangers potentiels de la technologie ont été largement documentés. Mais Margaret Kosal, professeure agrégée au Ivan Allen College of Liberal Arts, affirme qu’un contexte supplémentaire est souvent nécessaire pour dissiper l’hystérie.
« Personne ne va connecter l’IA pour lancer des armes nucléaires, mais les capacités de l’IA peuvent permettre le ciblage, ou permettre de réduire le commandement et le contrôle ainsi que le temps de prise de décision », a-t-elle déclaré.
L’ordonnance créera un Conseil de sûreté et de sécurité de l’IA chargé de faire face aux menaces critiques. Les entreprises développant des modèles de fondation qui « posent un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales » seront tenues d’informer le gouvernement fédéral lors de la formation du modèle et de partager les résultats de tous les tests de sécurité de l’équipe rouge. —une cyberattaque simulée pour tester les défenses d’un système.
Depuis le lancement de ChatGPT en 2022, un rapport de CNBC détaille une augmentation de 1 267 % des e-mails de phishing. Srijan Kumar, professeur adjoint au College of Computing, attribue cette augmentation à la disponibilité de la technologie et à l’incapacité de maîtriser les « mauvais acteurs ».
Il affirme que ces escroqueries continueront à devenir de plus en plus sophistiquées et personnalisées. Ils « peuvent être créés en sachant de quoi vous pourriez être prêt à devenir la proie par rapport à ce dont je pourrais devenir la proie », a déclaré Kumar, dont les systèmes ont influencé la détection de la désinformation sur des sites comme X (anciennement Twitter) et Wikipédia. « L’IA ne fera pas toutes ces mauvaises choses de manière autonome, mais cet ordre peut garantir des conséquences pour les personnes qui en abusent. »
Un équilibre délicat
La création d’une plateforme d’IA nécessite de grandes quantités de données, quelle que soit l’application prévue. Les deux principaux objectifs du décret sont la protection de la vie privée et la promotion de l’équité.
Pour protéger les données personnelles, l’ordonnance charge le Congrès d’évaluer la manière dont les agences collectent et utilisent les informations disponibles dans le commerce et traitent la discrimination algorithmique.
Reconnaissant que chacun devrait être autorisé à faire entendre sa voix dans les résultats des ensembles de données d’IA, Deven Desai, professeur agrégé au Scheller College of Business, a noté : « Il y a des gens qui ne veulent pas faire partie des ensembles de données, ce qui c’est leur droit, mais cela signifie que leurs voix ne seront pas reflétées dans les résultats. »
L’ordonnance comprend également des sections visant à répondre aux préoccupations des inventeurs et des créateurs en matière de propriété intellectuelle, même si les contestations judiciaires créeront probablement de nouveaux précédents dans les années à venir.
Le moment venu, Kosal affirme que définir le « vol » dans le contexte de l’IA deviendra le véritable défi et qu’en fin de compte, l’argent jouera un rôle important. « Si vous crachez un livre d’Harry Potter et le lisez vous-même, personne ne s’en souciera. C’est lorsque vous commencez à le vendre pour gagner de l’argent, et que vous ne partagez pas les bénéfices avec les originaux, que cela devient un problème », a-t-elle déclaré.
Que signifie généré par l’IA ?
L’ordonnance charge le ministère du Commerce d’élaborer des lignes directrices pour l’authentification du contenu et le filigrane pour étiqueter le contenu généré par l’IA. Desai se demande ce que signifie le fait que quelque chose soit véritablement créé par l’IA.
Une distinction importante réside entre l’utilisation de l’IA pour aider un écrivain à organiser ses pensées et l’utilisation de la technologie pour générer du contenu. Il compare cette tendance à l’industrie musicale des années 1980.
« Les synthétiseurs ont vraiment changé la capacité des gens à générer de la musique et, pendant un moment, les gens ont pensé que c’était horrible. Ils peuvent simplement programmer la musique. Ce n’est pas le cas. Je suis toujours l’humain responsable de cette musique, ou de cet article dans ce cas, alors à quoi sert cette étiquette ? » il demande.
Alors que l’assistance de l’IA devient monnaie courante dans la création de contenu, il est de plus en plus important de faire confiance à la source d’information. Récemment, des articles publiés sur le site Web de Sports Illustrated présentaient du contenu généré par l’IA et fourni par une société tierce qui avait utilisé une machine pour écrire le contenu et créer de fausses signatures. Sports Illustrated, qui n’était peut-être pas au courant du problème, a publié le matériel sans le divulguer aux lecteurs. Le PDG Ross Levinsohn a été évincé peu de temps après la révélation de l’histoire.
« Peut-être que si le tiers avait divulgué son utilisation du logiciel d’IA, SI aurait été en mesure d’évaluer la quantité d’IA utilisée et aurait ensuite choisi de ne pas diffuser le matériel, ou de le diffuser en précisant que l’IA avait aidé à écrire le matériel. » » dit Desaï. « Bien sûr, même s’ils qualifient le contenu de généré par l’IA, un lecteur ne saura toujours pas exactement quelle part du contenu provient de l’IA ou d’un humain. »
L’IA et la main-d’œuvre
À mesure que les systèmes et les modèles d’IA deviennent plus sophistiqués, les travailleurs peuvent s’inquiéter davantage d’être remplacés. Pour contrer ces inquiétudes, l’ordonnance appelle à une étude visant à examiner l’impact potentiel de l’IA sur les marchés du travail et les investissements dans les efforts de formation de la main-d’œuvre.
Kumar compare l’essor de l’IA à des innovations technologiques similaires au cours de l’histoire et y voit une opportunité d’adaptation pour les travailleurs et les industries. « Il s’agit moins de remplacer les travailleurs par l’IA que de recycler les gens pour qu’ils utilisent la nouvelle technologie. Ce n’est pas différent de la création des chaînes de montage dans l’industrie automobile. »
Promouvoir l’innovation et la concurrence
La possibilité d’exploiter tout le potentiel de l’IA a lancé une course vers le sommet. Desai estime qu’une partie du décret fournissant des ressources aux petits développeurs peut contribuer à uniformiser les règles du jeu.
« Il y a ici une possibilité pour les marchés de s’ouvrir. Les acteurs actuels qui utilisent des modèles qui n’ont pas été construits dans un souci de transparence pourraient avoir des difficultés, mais peut-être que ce n’est pas grave. »
La question de la fiabilité et de la transparence est au centre de l’attention de Desai, en particulier en ce qui concerne l’utilisation de l’IA par le gouvernement. L’ordonnance appelle les agences à « acquérir des produits et services d’IA spécifiques plus rapidement, à moindre coût et plus efficacement grâce à des contrats plus rapides et plus efficaces ».
Lorsque l’argent des contribuables est en jeu, le gouvernement ne peut pas se permettre de faire confiance à une technologie qu’il ne comprend pas pleinement – un sujet que Desai a exploré ailleurs. « Vous ne pouvez pas simplement dire : ‘Nous ne savons pas comment cela fonctionne, mais nous lui faisons confiance.’ Cela ne fonctionnera pas. C’est donc là que la capacité du gouvernement à utiliser les logiciels du secteur privé pourrait être ralentie s’il ne peut pas expliquer comment le système fonctionne et montrer qu’il n’a pas de problèmes discriminatoires.
Et après
La promotion et le contrôle de l’utilisation sûre de l’IA ne peuvent se faire de manière indépendante. Les experts de Georgia Tech conviennent qu’une participation à l’échelle mondiale est nécessaire. À cette fin, l’Union européenne dévoilera sa loi européenne complète sur l’IA, qui comprend un cadre similaire à celui du décret présidentiel.
En raison de la nature évolutive de l’IA, le décret ou les actions de l’UE ne seront pas exhaustifs. Le droit est souvent à la traîne par rapport à la technologie, mais Kosal souligne qu’il est crucial de penser au-delà de ce qui existe actuellement lors de l’élaboration d’une politique.
Les experts conviennent également que l’IA ne peut être réglementée ou gouvernée par un seul document et que cet ordre est probablement le premier d’une série de mesures politiques. Kosal voit d’énormes opportunités dans l’innovation autour de l’IA, mais espère que la peur croissante de son essor n’inaugurera pas un nouvel hiver de l’IA, au cours duquel l’intérêt et le financement de la recherche s’estomperont.