La recherche introduit une nouvelle approche pour détecter les deepfakes

Que sont les deepfakes et devons-nous nous inquiéter ?

Les deepfakes font des ravages dans le monde entier, diffusant de fausses nouvelles et de la pornographie, étant utilisés pour usurper des identités, exploiter des célébrités, arnaquer les gens ordinaires et même influencer les élections.

Pourtant, une enquête mondiale a révélé que 71 % des personnes n’ont aucune idée de ce que sont les deepfakes.

Les deepfakes sont des photos numériques, des vidéos ou des voix de personnes réelles qui ont été créées synthétiquement ou manipulées à l'aide de l'intelligence artificielle (IA) et qui peuvent être difficiles à distinguer de la réalité.

Vous avez probablement vu une vidéo ou une photo deepfake sans même vous en rendre compte. Des Tom Cruise, Taylor Swift et Mark Zuckerberg générés par ordinateur circulent sur Internet depuis plusieurs années, mais ce qui a commencé comme un divertissement inoffensif est maintenant devenu beaucoup plus sérieux.

Plus tôt cette année, un employé financier d'une entreprise multinationale de Hong Kong a été amené à payer 39 millions de dollars australiens à des fraudeurs qui ont utilisé la technologie deepfake pour se faire passer pour le directeur financier de l'entreprise lors d'une vidéoconférence.

En 2022, une fausse vidéo du président ukrainien Volodymyr Zelenskyy est apparue, le montrant faussement exhortant son armée à se rendre aux forces d’invasion russes. Bien que le dirigeant ukrainien ait rapidement mis fin à cette activité, il existe des craintes réelles que les deepfakes propagent de fausses informations et des théories du complot lors de plusieurs campagnes électorales cette année, notamment aux États-Unis, au Royaume-Uni, en Inde et en Russie.

Le chef de la Défense australienne, Angus Campbell, a exprimé ses craintes que le monde n'entre dans « une ère de décadence de la vérité », où la désinformation saperait la démocratie en semant la discorde et la méfiance.

Campbell a déclaré lors d'une conférence sur la défense en 2023 que l'intelligence artificielle et les deepfakes « nuiraient sérieusement à la confiance du public dans les élus » en empêchant la plupart des gens de distinguer les faits de la fiction.

Depuis quelques années, les informaticiens, y compris ceux de l'UniSA STEM, développent de nouvelles technologies d'IA pour aider à répondre à des défis importants dans les domaines de l'industrie, des soins de santé, de l'ingénierie et de la défense.

Grâce aux progrès de l'apprentissage automatique et des réseaux neuronaux profonds, ils ont utilisé la technologie à bon escient, mais il y a toujours eu la possibilité que des personnes malveillantes (connues sous le nom de « mauvais acteurs » dans l'industrie) la tournent à leur avantage. Entrez les deepfakes.

Dans cet article, le professeur associé Wolfgang Mayer et le professeur Javaan Chahl donnent leur point de vue sur les deepfakes.

Professeur associé Wolfgang Mayer, informaticien à l'UniSA et expert en IA

Q: Les deepfakes sont possibles grâce aux progrès de l’apprentissage automatique et de l’IA. Quels gains positifs avons-nous réalisés grâce à cette technologie, et cela contrecarre-t-il les utilisations dangereuses ?

La technologie de l’IA générative a toujours eu de bons et de mauvais usages.

Nous entendons beaucoup parler dans les médias de la façon dont l’IA générative est utilisée à des fins nuisibles, mais elle fait plus de bien que de mal dans le monde. Si l’on pense aux voitures autonomes pour éviter les accidents et permettre aux personnes handicapées de se déplacer librement, cela n’est possible que grâce à l’intelligence artificielle et à l’apprentissage automatique.

Cette technologie nous permet d’accélérer la recherche médicale en santé et de détecter les maladies plus tôt ; c'est également un outil puissant dans la construction et l'ingénierie, libérant les tâches banales et minimisant les erreurs ; et c'est la base des systèmes de vision par ordinateur. Les utilisations positives dépassent de loin les négatives.

Cependant, il ne fait aucun doute que les deepfakes posent problème. Le problème de la propagande et de la désinformation n’est pas nouveau, mais il prend désormais une autre ampleur en raison des deepfakes.

Q: La plupart des gens supposeraient que l’IA n’est comprise que par les informaticiens et les ingénieurs informatiques spécialisés, et non par les gens ordinaires. Vrai?

Créer des systèmes inspirés du cerveau est un processus compliqué, mais utiliser ces systèmes est désormais relativement simple – et c'est pourquoi les deepfakes prolifèrent. Les systèmes sont devenus suffisamment puissants pour que nous n'ayons pas besoin d'être des experts en apprentissage automatique pour les utiliser. Il s'agit simplement de télécharger une application développée par des entreprises technologiques.

Q: L'apposition d'un filigrane numérique sur des images authentiques d'IA contribuera-t-elle à lutter contre la prolifération des deepfakes ?

Non. Cela pourrait arrêter les utilisateurs les plus simplistes, mais les plus sérieux pourront répliquer la technologie sans la filigraner. À mesure que la qualité de l’IA générative s’améliore, il sera plus difficile de détecter les fausses photos, vidéos et voix clonées.

Q: De quelles manières pouvez-vous repérer les deepfakes ?

Cela peut être délicat, selon les efforts déployés par quelqu’un pour créer un deepfake. La synthèse des mains est toujours difficile et souvent les lèvres ne se synchronisent pas avec la voix dans une vidéo. Cependant, reproduire des visages lors d’une vidéoconférence est beaucoup plus simple. Je pense qu’en fin de compte, il sera extrêmement difficile de repérer les deepfakes en fonction de leur apparence. Nous devons nous fier à ce qui est dit, à la situation et à la question de savoir si elle est étrange d'une manière ou d'une autre.

Q: Que peuvent faire les gens pour se protéger contre les deepfakes ?

À moins que vous ne soyez en position de pouvoir ou que vous soyez une célébrité, vous ne risquez probablement pas d’être copié. Cependant, les gens doivent faire attention à ce qu’ils mettent en ligne, car toutes ces données peuvent être utilisées pour nous imiter.

Si je devais mettre toutes mes notes de cours en ligne, il ne serait pas si difficile de générer un Wolfgang virtuel pour donner mes cours, mais heureusement, ils sont derrière un paywall. C'est une bonne idée de vérifier auprès d'autres sources si ce que vous avez vu ou entendu, notamment sur les réseaux sociaux, est effectivement exact.

Professeur Javaan Chahl, chaire conjointe DST/UniSA des systèmes de capteurs

Q: Quel impact les deepfakes auront-ils sur les gouvernements et pourraient-ils éroder la confiance dans nos dirigeants ?

Les gouvernements et les hommes politiques sapent déjà la démocratie. En marge de chaque campagne électorale, notamment au cours de la dernière décennie, de faux dépliants ont été publiés ; des choses qui sont dites par les politiciens et qui se révèlent plus tard terriblement fausses. Ce jeu est déjà bien avancé.

Pour atténuer le sentiment de panique suscité par les deepfakes, la désinformation émanant des puissances supérieures dure depuis très longtemps. La raison pour laquelle les niveaux supérieurs de gouvernement pourraient s’inquiéter de cette utilisation de l’IA est qu’ils ont eu la mainmise sur l’information dans le passé et qu’ils pouvaient décider de ce qu’on leur disait. Désormais, des personnes sans visage peuvent commencer à envoyer des signaux bruyants dans le système et provoquer le chaos.

En Australie, notre relation avec le pouvoir est celle de la méfiance et l’a toujours été. Je ne pense pas que les gens font autant confiance au leadership que les dirigeants le pensent, et l’infiltration de deepfakes signifie qu’ils devront travailler encore plus dur pour garantir au public qu’ils disent la vérité. Ce n'est pas une mauvaise chose.

Q: Quel rôle les médias ont-ils pour garantir qu’ils ne diffusent pas de deepfakes ?

Les médias utilisent déjà ChatGPT pour rédiger leurs articles, alors ne soyez pas surpris si les gens cessent complètement de leur faire confiance. Les téléspectateurs devraient de toute façon remettre en question chaque vidéo qu’ils voient sur les réseaux sociaux et les chaînes d’information grand public, car elles n’incluent généralement que des segments qui correspondent à leur récit.

Les médias sont devenus plus partisans ces dernières années, ce qui érode la confiance du public, même sans l'infiltration de deepfakes. Les médias doivent adopter une position non partisane, s’appuyer davantage sur les faits et commencer à vérifier d’où viennent les médias s’ils veulent qu’on leur fasse confiance.

Q: Entrons-nous dans une ère où il est difficile de séparer la réalité de la fiction à cause de l’IA ?

Les gens qui ne croient pas automatiquement ce qu’ils voient, lisent ou entendent sur les médias numériques sont probablement une bonne chose. Nous avons besoin d’une réflexion plus critique plutôt que de tout accepter au pied de la lettre. Mon conseil est de remettre en question tout ce que vous voyez sur les réseaux sociaux ou dans l’actualité, à moins que vous ne connaissiez la personne qui l’a filmé et que vous lui fassiez implicitement confiance.

Même les images et les vidéos qui n’ont pas été manipulées numériquement peuvent contenir des mensonges sous forme de propagande. Les gens devraient donc traiter toutes les vidéos comme des films, qui sont essentiellement un exercice de création d’un monde artificiel qui ressemble au monde réel à des degrés divers.

Q: Devons-nous nous inquiéter des deepfakes et de l’IA qui s’infiltrent dans nos forces de défense et constituent une menace pour notre sécurité nationale ?

La désinformation existe depuis des décennies ; elle prend désormais une forme différente. Nous en faisons partie. Dans le passé, des régimes rivaux exploitaient les défauts de personnalité courants chez les intellectuels pour exporter une idéologie intelligente, séduisante et source de division. Ces opérations de déstabilisation se poursuivent bien après la disparition de ces régimes.

Nous disposons désormais d’une technologie très sophistiquée qui est déployée sous la forme d’une cyberguerre, perturbant des systèmes informatiques vitaux à des fins stratégiques ou militaires, et d’une technologie de contrefaçon pour diminuer la cohésion sociale. Il s’agit de manipulation de l’information, qui a toujours été partie intégrante des conflits.

Q: Que peuvent faire les chercheurs comme vous pour lutter contre les deepfakes, ou sommes-nous simplement en train de mener une bataille perdue d’avance ?

À l’heure actuelle, nous pouvons utiliser la technologie de vision par ordinateur pour lire les signes vitaux sur une vidéo afin de déterminer si elle est fausse. Nous savons que les vidéos deepfake présentent des signes vitaux irréguliers au-delà de la respiration et de la fréquence cardiaque, tels que la saturation en oxygène du sang, la tension artérielle, la température et d'autres éléments pouvant indiquer si elles sont fausses. Cela pourrait nous faire gagner quelques années, mais en fin de compte, la qualité des vidéos dépend de la chaîne de contrôle humaine qui a conduit à la vidéo.