Un faux appel automatisé de Biden aux électeurs du New Hampshire souligne à quel point il est facile de créer des deepfakes
Le 21 janvier 2024, un nombre inconnu d’électeurs du New Hampshire ont reçu un appel téléphonique de ce qui ressemblait au président Joe Biden. Un enregistrement contient la voix de Biden exhortant les électeurs enclins à soutenir Biden et le Parti démocrate à ne pas participer aux élections primaires du GOP du New Hampshire le 23 janvier.
« Les républicains ont essayé de pousser les électeurs non partisans et démocrates à participer à leurs primaires. Quelle absurdité. Nous connaissons la valeur de voter démocrate lorsque nos votes comptent. Il est important que vous gardiez votre vote pour les élections de novembre. Nous le ferons avez besoin de votre aide pour élire les démocrates de haut en bas. Le vote de ce mardi permet uniquement aux républicains dans leur quête de réélire Donald Trump. Votre vote fait une différence en novembre, pas ce mardi. Si vous souhaitez être exclu des futurs appels , s’il vous plaît, appuyez sur deux maintenant. »
Cet appel implique à tort qu’un démocrate inscrit pourrait voter à la primaire républicaine et qu’un électeur qui vote à la primaire ne serait pas éligible pour voter aux élections générales de novembre. L’État autorise les électeurs non inscrits à participer aux primaires républicaines ou démocrates.
L’appel, deux jours avant la primaire, semble avoir été un deepfake d’intelligence artificielle. Il semble également qu’il s’agisse d’une tentative de décourager le vote. Biden n’est pas sur le bulletin de vote en raison d’un différend entre le Comité national démocrate et les démocrates du New Hampshire concernant la position du New Hampshire dans le calendrier des primaires, mais il y a une campagne écrite pour Biden.
Les appels automatisés lors des élections ne sont ni nouveaux ni illégaux ; beaucoup ne sont que des efforts pour faire sortir le vote. Mais ils ont également été utilisés dans des campagnes de répression des électeurs. Dans ce cas, ce problème est aggravé par ce que je pense être l’application de l’IA pour cloner la voix de Biden.
Dans un écosystème médiatique plein de bruit, les signaux brouillés tels que les appels automatisés deepfakes rendent pratiquement impossible la distinction entre les faits et les faux.
Récemment, un certain nombre d’entreprises sont apparues en ligne et proposent l’usurpation d’identité en tant que service. Pour les utilisateurs comme vous et moi, c’est aussi simple que de sélectionner un homme politique, une célébrité ou un dirigeant comme Joe Biden, Donald Trump ou Elon Musk dans un menu et de taper un script de ce que vous voulez qu’il dise, et le site Web crée le deepfake. automatiquement. Bien que la sortie audio et vidéo soit généralement saccadée et guinchée, lorsque l’audio est transmis via un appel automatisé, il est très crédible. Vous pourriez facilement penser que vous entendez un enregistrement de Joe Biden, mais en réalité, il s’agit d’une désinformation créée par une machine.
Le contexte est la clé
Je suis un spécialiste des médias et de la désinformation. En 2019, le spécialiste de l’information Brit Paris et moi-même avons étudié comment les réseaux contradictoires génératifs – ce que la plupart des gens considèrent aujourd’hui comme l’IA – transformeraient la manière dont les institutions évaluent les preuves et prennent des décisions lorsqu’elles jugent des manipulations audio et vidéo réalistes. Ce que nous avons découvert, c’est qu’aucun média n’est fiable à première vue ; c’est plutôt le contexte qui compte pour faire une interprétation.
Lorsqu’il s’agit de désinformation renforcée par l’IA, la crédibilité des deepfakes dépend de l’endroit où vous les voyez ou de l’entendez, ou de qui les partage. Sans une source valide et confirmée attestant de ce fait, un deepfake peut être intéressant ou drôle, mais ne passera jamais devant un tribunal. Cependant, les deepfakes peuvent toujours être préjudiciables lorsqu’ils sont utilisés dans le but de supprimer le vote ou de façonner l’opinion publique sur des questions controversées.
Les campagnes de désinformation renforcées par l’IA sont difficiles à contrer, car pour démasquer la source, il faut suivre la trace des métadonnées, c’est-à-dire les données relatives à un média. La manière dont cela se fait varie en fonction de la méthode de distribution : appels automatisés, réseaux sociaux, e-mail, SMS ou sites Web. À l’heure actuelle, la recherche sur la manipulation audio et vidéo est plus difficile car de nombreuses grandes entreprises technologiques ont fermé l’accès à leurs interfaces de programmation d’applications, qui permettent aux chercheurs de collecter des données sur les médias sociaux, et les entreprises ont mis fin à leur confiance et à leur sécurité. équipes.
Connaissances locales précises et opportunes
À bien des égards, la désinformation renforcée par l’IA, comme l’appel automatisé du New Hampshire, pose les mêmes problèmes que toute autre forme de désinformation. Les personnes qui utilisent l’IA pour perturber les élections sont susceptibles de faire ce qu’elles peuvent pour cacher leurs traces. C’est pourquoi il est nécessaire que le public reste sceptique quant aux affirmations qui ne proviennent pas de sources vérifiées, telles que les journaux télévisés locaux ou les comptes de réseaux sociaux. organismes de presse réputés.
Il est également important que le public comprenne de quoi sont capables les nouvelles technologies de manipulation audio et visuelle. Maintenant que la technologie est devenue largement disponible et avec une année électorale charnière à venir, le faux appel automatisé de Biden n’est que la dernière d’une série de campagnes de désinformation renforcées par l’IA.
Je crois que la société doit apprendre à vénérer ce que j’appelle TALK : un savoir local opportun, précis. Je crois qu’il est important de concevoir des systèmes de médias sociaux qui valorisent les connaissances locales précises et opportunes plutôt que les perturbations et les divisions.
Il est également important de faire en sorte qu’il soit plus difficile pour les désinformateurs de tirer profit de la sape de la démocratie. Par exemple, l’utilisation malveillante de la technologie pour supprimer la participation électorale devrait faire l’objet d’une enquête rigoureuse de la part des autorités policières fédérales et étatiques.
Même si les deepfakes peuvent surprendre les gens, ils ne devraient pas nous prendre au dépourvu, aussi lente soit la vérité par rapport à la vitesse de la désinformation.
