L'outil vocal d'IA "abusé" alors que les deepfakes inondent le forum Web

De fausses vidéos pourraient influencer l’élection présidentielle de 2024 – un chercheur en cybersécurité explique les deepfakes de la situation

Crédit : domaine public Unsplash/CC0

Imaginez une surprise d’octobre pas comme les autres : une semaine seulement avant le 5 novembre 2024, un enregistrement vidéo révèle une rencontre secrète entre Joe Biden et Volodymyr Zelenskyy. Les présidents américain et ukrainien conviennent d’intégrer immédiatement l’Ukraine à l’OTAN dans le cadre du « protocole spécial d’adhésion d’urgence » et de se préparer à une frappe nucléaire contre la Russie. Soudain, le monde est sur le point d’Armageddon.

Alors que les journalistes pourraient souligner qu’aucun protocole de ce type n’existe et que les utilisateurs des médias sociaux pourraient remarquer des qualités étranges de la vidéo, comme un jeu vidéo, d’autres pourraient penser que leurs pires craintes ont été confirmées. Lorsque le jour du scrutin arrive, ces citoyens inquiets peuvent laisser la vidéo influencer leurs votes, ignorant qu’ils viennent d’être manipulés par une situation truquée, un événement qui ne s’est jamais produit.

Les deepfakes de situation représentent la prochaine étape des technologies qui ont déjà ébranlé la perception de la réalité par le public. Dans nos recherches au DeFake Project, mes collègues du Rochester Institute of Technology, de l’Université du Mississippi, de l’Université d’État du Michigan et moi-même étudions comment les deepfakes sont fabriqués et quelles mesures les électeurs peuvent prendre pour s’en défendre.

Imaginer des événements qui ne se sont jamais produits

Un deepfake est créé lorsqu’une personne utilise un outil d’intelligence artificielle, en particulier l’apprentissage en profondeur, pour manipuler ou générer un visage, une voix ou, avec l’essor de grands modèles de langage comme ChatGPT, un langage conversationnel. Ceux-ci peuvent être combinés pour former des « deepfakes de situation ».

L’idée de base et la technologie d’un deepfake de situation sont les mêmes que pour tout autre deepfake, mais avec une ambition plus audacieuse : manipuler un événement réel ou en inventer un à partir de rien. Les exemples incluent des représentations de La promenade perp de Donald Trump et Trump étreignant Anthony Fauci, ce qui n’est pas arrivé. Le coup de câlin a été promu par un Compte Twitter associé à la campagne présidentielle du rival de Trump, Ron DeSantis. Une publicité d’attaque ciblant la campagne 2024 de Joe Biden publiée par le Comité national républicain a été entièrement réalisée avec l’IA.

Au projet DeFake, nos recherches ont révélé que les deepfakes, y compris les situations, sont généralement créés par un mélange d’ajout d’un média à un autre ; utiliser une vidéo pour animer une image ou modifier une autre vidéo, appelée marionnette ; créer un média, généralement en utilisant l’IA générative ; ou une combinaison de ces techniques.

Pour être clair, de nombreux deepfakes de situation sont faits à des fins innocentes. Par exemple, Infinite Odyssey Magazine produit de fausses photos de films qui n’ont jamais été produits ou qui n’auraient jamais pu exister. Mais même les deepfakes innocents donnent lieu à une pause, comme dans le cas de fausses photographies presque crédibles illustrant l’atterrissage d’Apollo Moon comme une production cinématographique.

Truquer une élection

Maintenant, mettez-vous à la place de quelqu’un qui essaie d’influencer les prochaines élections. Quelles sont les situations possibles que vous pourriez vouloir créer ?

Pour commencer, il importerait de savoir si vous vouliez incliner le vote vers ou à l’opposé d’un résultat spécifique. Peut-être dépeindriez-vous un candidat agissant héroïquement en écartant un piéton du chemin d’une voiture qui roule ou, à l’inverse, en faisant quelque chose d’offensant ou de criminel. Le format de la situation deepfake serait également important. Au lieu d’une vidéo, il pourrait s’agir d’une photographie, peut-être avec le flou et les angles qui simulent un appareil photo de smartphone ou le faux logo d’une agence de presse.

Votre public cible serait la clé. Plutôt que de viser l’électorat général ou la base d’un parti, vous pouvez cibler les théoriciens du complot dans les principales circonscriptions électorales. Vous pouvez dépeindre le candidat ou les membres de sa famille comme se livrant à un rituel satanique, participant à un festival dans l’exclusif et controversé Bohemian Grove, ou ayant une réunion secrète avec un extraterrestre.

Si vous en avez l’ambition et les capacités, vous pourriez même essayer de truquer l’élection elle-même. En juin 2023, les stations de télévision et de radio russes ont été piratées et ont diffusé un ordre de mobilisation complet par un deepfake du président russe Vladimir Poutine. Bien que cela soit plus difficile à faire lors d’une élection américaine, en principe, tout média pourrait être piraté pour diffuser des deepfakes de leurs ancres annonçant les mauvais résultats ou un candidat concédant.

Défendre la réalité

Il existe une variété de moyens technologiques et psychologiques pour détecter et se défendre contre les deepfakes de situation.

Sur le plan technologique, tous les deepfakes contiennent des preuves de leur véritable nature. Certains de ces signes peuvent être vus par l’œil humain – comme une peau trop lisse ou un éclairage ou une architecture étrange – tandis que d’autres peuvent être détectables uniquement par une IA de chasse au deepfake.

Nous construisons le détecteur de DeFake pour utiliser l’IA pour détecter les signes révélateurs de deepfakes, et nous travaillons pour essayer de le préparer à temps pour les élections de 2024. Mais même si un détecteur de deepfake suffisamment puissant comme le nôtre ne peut pas être déployé d’ici le jour du scrutin, il existe des outils psychologiques que vous, l’électeur, pouvez utiliser pour identifier les deepfakes : connaissances de base, curiosité et scepticisme sain.

Si vous rencontrez un contenu médiatique sur une personne, un lieu ou un événement qui semble inhabituel, faites confiance à vos connaissances de base. Par exemple, dans un canular récent d’un incendie au Pentagone, le bâtiment montré semble plus carré que pentagonal, ce qui pourrait être un cadeau.

Cependant, essayez de ne pas vous fier entièrement à vos connaissances de base, qui pourraient être erronées ou inégales. N’ayez jamais peur d’en savoir plus à partir de sources fiables, telles que des reportages vérifiés, des articles universitaires évalués par des pairs ou des entretiens avec des experts accrédités.

De plus, sachez que les deepfakes peuvent être utilisés pour tirer parti de ce que vous êtes enclin à croire à propos d’une personne, d’un lieu ou d’un événement. L’une des meilleures façons de gérer cela est simplement d’être conscient de vos préjugés et d’être un peu prudent face à tout contenu médiatique qui semble les confirmer.

Même s’il devient possible de créer des deepfakes en situation parfaite, la crédibilité de leur sujet restera probablement leur talon d’Achille. Ainsi, avec ou sans solution technologique, vous avez toujours le pouvoir de défendre l’élection contre l’influence de faux événements.