Comment l’IA pourrait prendre le contrôle des élections et saper la démocratie
Les organisations pourraient-elles utiliser des modèles de langage d’intelligence artificielle tels que ChatGPT pour inciter les électeurs à se comporter de manière spécifique ?
Le sénateur Josh Hawley a posé cette question au PDG d’OpenAI, Sam Altman, lors d’une audience du Sénat américain sur l’intelligence artificielle le 16 mai 2023. Altman a répondu qu’il craignait en effet que certaines personnes utilisent des modèles linguistiques pour manipuler, persuader et s’engager dans des interactions individuelles avec les électeurs.
Altman n’a pas précisé, mais il aurait pu avoir quelque chose comme ce scénario en tête. Imaginez que bientôt, des technologues politiques développent une machine appelée Clogger – une campagne politique dans une boîte noire. Clogger poursuit sans relâche un seul objectif : maximiser les chances que son candidat – la campagne qui achète les services de Clogger Inc. – l’emporte lors d’une élection.
Alors que des plateformes comme Facebook, Twitter et YouTube utilisent des formes d’IA pour amener les utilisateurs à passer plus de temps sur leurs sites, l’IA de Clogger aurait un objectif différent : changer le comportement de vote des gens.
Comment Clogger fonctionnerait
En tant que politologue et juriste qui étudie l’intersection de la technologie et de la démocratie, nous pensons que quelque chose comme Clogger pourrait utiliser l’automatisation pour augmenter considérablement l’échelle et potentiellement l’efficacité des techniques de manipulation du comportement et de microciblage que les campagnes politiques ont utilisées depuis le début des années 2000. . Tout comme les annonceurs utilisent votre historique de navigation et de médias sociaux pour cibler individuellement les publicités commerciales et politiques, Clogger prêterait attention à vous – et à des centaines de millions d’autres électeurs – individuellement.
Il offrirait trois avancées par rapport à la manipulation de comportement algorithmique de pointe actuelle. Tout d’abord, son modèle de langage générerait des messages – textes, médias sociaux et e-mails, comprenant peut-être des images et des vidéos – adaptés à vous personnellement. Alors que les annonceurs placent stratégiquement un nombre relativement restreint d’annonces, les modèles linguistiques tels que ChatGPT peuvent générer d’innombrables messages uniques pour vous personnellement, et des millions pour les autres, au cours d’une campagne.
Deuxièmement, Clogger utiliserait une technique appelée apprentissage par renforcement pour générer une succession de messages qui deviennent de plus en plus susceptibles de modifier votre vote. L’apprentissage par renforcement est une approche d’apprentissage automatique, d’essais et d’erreurs dans laquelle l’ordinateur prend des mesures et obtient des commentaires sur ce qui fonctionne le mieux afin d’apprendre comment atteindre un objectif. Les machines qui peuvent jouer au go, aux échecs et à de nombreux jeux vidéo mieux que n’importe quel humain ont utilisé l’apprentissage par renforcement.
Troisièmement, au cours d’une campagne, les messages de Clogger pourraient évoluer afin de prendre en compte vos réponses aux dépêches précédentes de la machine et ce qu’elle a appris sur le changement d’avis des autres. Clogger serait en mesure de poursuivre des « conversations » dynamiques avec vous – et des millions d’autres personnes – au fil du temps. Les messages de Clogger seraient similaires aux publicités qui vous suivent sur différents sites Web et médias sociaux.
La nature de l’IA
Trois autres fonctionnalités – ou bogues – méritent d’être notées.
Premièrement, les messages envoyés par Clogger peuvent ou non avoir un contenu politique. Le seul objectif de la machine est de maximiser la part des votes, et elle élaborerait probablement des stratégies pour atteindre cet objectif auxquelles aucun militant humain n’aurait pensé.
Une possibilité consiste à envoyer aux électeurs opposants probables des informations sur les passions non politiques qu’ils ont dans le sport ou le divertissement pour enterrer les messages politiques qu’ils reçoivent. Une autre possibilité consiste à envoyer des messages rebutants – par exemple des publicités sur l’incontinence – programmés pour coïncider avec les messages des adversaires. Et un autre manipule les groupes d’amis des médias sociaux des électeurs pour donner l’impression que leurs cercles sociaux soutiennent son candidat.
Deuxièmement, Clogger n’a aucun respect pour la vérité. En effet, il n’a aucun moyen de savoir ce qui est vrai ou faux. Les « hallucinations » du modèle de langage ne sont pas un problème pour cette machine car son objectif est de modifier votre vote, pas de fournir des informations précises.
Troisièmement, comme il s’agit d’une intelligence artificielle de type boîte noire, les gens n’auraient aucun moyen de savoir quelles stratégies elle utilise.
Clogocratie
Si la campagne présidentielle républicaine devait déployer Clogger en 2024, la campagne démocrate serait probablement obligée de répondre en nature, peut-être avec une machine similaire. Appelez-le Dogger. Si les directeurs de campagne pensaient que ces machines étaient efficaces, le concours présidentiel pourrait bien se résumer à Clogger contre Dogger, et le gagnant serait le client de la machine la plus efficace.
Les politologues et les experts auraient beaucoup à dire sur la raison pour laquelle l’une ou l’autre IA a prévalu, mais personne ne le saurait probablement vraiment. Le président aura été élu non pas parce que ses propositions politiques ou ses idées politiques ont persuadé plus d’Américains, mais parce qu’il ou elle avait l’IA la plus efficace. Le contenu qui a remporté la journée proviendrait d’une IA axée uniquement sur la victoire, sans idées politiques propres, plutôt que de candidats ou de partis.
Dans ce sens très important, une machine aurait remporté l’élection plutôt qu’une personne. L’élection ne serait plus démocratique, même si toutes les activités ordinaires de la démocratie – les discours, les publicités, les messages, le vote et le dépouillement des votes – auront eu lieu.
Le président élu par l’IA pourrait alors emprunter l’une des deux voies. Il ou elle pourrait utiliser le manteau de l’élection pour poursuivre les politiques des partis républicains ou démocrates. Mais parce que les idées du parti n’ont peut-être pas grand-chose à voir avec la raison pour laquelle les gens ont voté comme ils l’ont fait – Clogger et Dogger ne se soucient pas des opinions politiques – les actions du président ne refléteraient pas nécessairement la volonté des électeurs. Les électeurs auraient été manipulés par l’IA plutôt que de choisir librement leurs dirigeants politiques et leurs politiques.
Une autre voie consiste pour le président à poursuivre les messages, les comportements et les politiques qui, selon la machine, maximiseront les chances de réélection. Sur cette voie, le président n’aurait pas de plate-forme ou d’agenda particulier au-delà du maintien au pouvoir. Les actions du président, guidées par Clogger, seraient les plus susceptibles de manipuler les électeurs plutôt que de servir leurs véritables intérêts ou même la propre idéologie du président.
Éviter la clogocratie
Il serait possible d’éviter la manipulation électorale par l’IA si les candidats, les campagnes et les consultants renonçaient tous à l’utilisation d’une telle IA politique. Nous pensons que c’est peu probable. Si des boîtes noires politiquement efficaces étaient développées, la tentation de les utiliser serait presque irrésistible. En effet, les consultants politiques pourraient bien voir utiliser ces outils comme l’exige leur responsabilité professionnelle pour faire gagner leurs candidats. Et une fois qu’un candidat utilise un outil aussi efficace, on ne peut guère s’attendre à ce que les opposants résistent en désarmant unilatéralement.
Une meilleure protection de la vie privée serait utile. Clogger dépendrait de l’accès à de grandes quantités de données personnelles afin de cibler les individus, de créer des messages adaptés pour les persuader ou les manipuler, et de les suivre et de les recibler au cours d’une campagne. Chaque partie de ces informations que les entreprises ou les décideurs nient à la machine la rendrait moins efficace.
Une autre solution réside dans les commissions électorales. Ils pourraient essayer d’interdire ou de réglementer sévèrement ces machines. Il y a un débat féroce sur la question de savoir si un tel discours « réplicant », même s’il est de nature politique, peut être réglementé. La tradition de liberté d’expression extrême des États-Unis conduit de nombreux universitaires de premier plan à dire que ce n’est pas le cas.
Mais il n’y a aucune raison d’étendre automatiquement la protection du premier amendement au produit de ces machines. La nation pourrait bien choisir de donner des droits aux machines, mais cela devrait être une décision fondée sur les défis d’aujourd’hui, et non sur l’hypothèse erronée selon laquelle les vues de James Madison en 1789 étaient censées s’appliquer à l’IA.
Les régulateurs de l’Union européenne vont dans ce sens. Les décideurs politiques ont révisé le projet de loi sur l’intelligence artificielle du Parlement européen pour désigner les « systèmes d’IA pour influencer les électeurs dans les campagnes » comme « à haut risque » et soumis à un examen réglementaire.
Une étape constitutionnellement plus sûre, bien que plus petite, déjà adoptée en partie par les régulateurs européens de l’internet et en Californie, consiste à interdire aux bots de se faire passer pour des personnes. Par exemple, la réglementation peut exiger que les messages de campagne soient accompagnés de clauses de non-responsabilité lorsque le contenu qu’ils contiennent est généré par des machines plutôt que par des humains.
Cela ressemblerait aux exigences de la clause de non-responsabilité publicitaire – « Payé par le comité Sam Jones pour le Congrès » – mais modifié pour refléter son origine IA : « Cette publicité générée par l’IA a été payée par le comité Sam Jones pour le Congrès ». Une version plus forte pourrait exiger : « Ce message généré par l’IA vous est envoyé par le comité Sam Jones pour le Congrès, car Clogger a prédit que cela augmenterait vos chances de voter pour Sam Jones de 0,0002 %. » À tout le moins, nous pensons que les électeurs méritent de savoir quand c’est un bot qui leur parle, et ils devraient également savoir pourquoi.
La possibilité d’un système comme Clogger montre que le chemin vers la déresponsabilisation collective humaine peut ne pas nécessiter une intelligence générale artificielle surhumaine. Cela pourrait simplement nécessiter des militants et des consultants trop enthousiastes qui disposent de nouveaux outils puissants capables de pousser efficacement les nombreux boutons de millions de personnes.