Voir c'est croire?  Bousculade mondiale pour lutter contre les deepfakes

Voir c’est croire? Bousculade mondiale pour lutter contre les deepfakes

Un téléphone montre une déclaration du chef de la politique de sécurité de Meta devant une fausse vidéo du président ukrainien Volodymyr Zelensky appelant ses soldats à déposer les armes.

Des chatbots débitant des mensonges, des applications d’échange de visage créant des vidéos porno et des voix clonées fraudant des millions d’entreprises – la ruée est en cours pour freiner les deepfakes d’IA qui sont devenus un super diffuseur de désinformation.

L’intelligence artificielle redéfinit le proverbe « voir c’est croire, » avec un déluge d’images créées à partir de rien et des gens montrés en train de dire des choses qu’ils n’ont jamais dites dans des deepfakes d’apparence réelle qui ont érodé la confiance en ligne.

« Ouais. (Certainement) pas moi, » a tweeté le milliardaire Elon Musk l’année dernière dans un exemple frappant d’une vidéo deepfake qui le montrait faisant la promotion d’une arnaque à la crypto-monnaie.

La Chine a récemment adopté des règles étendues pour réglementer les deepfakes, mais la plupart des pays semblent avoir du mal à suivre l’évolution rapide de la technologie, craignant que la réglementation puisse entraver l’innovation ou être utilisée à mauvais escient pour restreindre la liberté d’expression.

Les experts avertissent que les détecteurs de deepfake sont largement dépassés par les créateurs, qui sont difficiles à attraper car ils fonctionnent de manière anonyme en utilisant un logiciel basé sur l’IA qui était autrefois présenté comme une compétence spécialisée mais qui est maintenant largement disponible à faible coût.

L’année dernière, le propriétaire de Facebook, Meta, a déclaré avoir retiré une vidéo deepfake du président ukrainien Volodymyr Zelensky exhortant les citoyens à déposer leurs armes et à se rendre à la Russie.

Et la militante britannique Kate Isaacs, 30 ans, l’a déclarée « coeur a coulé » quand son visage est apparu dans une vidéo porno deepfake qui a déclenché un déluge d’abus en ligne après qu’un utilisateur inconnu l’a posté sur Twitter.

« Je me souviens juste avoir eu l’impression que cette vidéo allait aller partout – c’était horrible, » Isaacs, qui fait campagne contre la pornographie non consensuelle, a été cité par la BBC en octobre.

Le mois suivant, le gouvernement britannique s’est inquiété des deepfakes et a mis en garde contre un site Web populaire qui « déshabille virtuellement les femmes. »

« L’apocalypse de l’information »

En l’absence d’obstacles à la création de texte, d’audio et de vidéo synthétisés par l’IA, le potentiel d’utilisation abusive dans le vol d’identité, la fraude financière et la ternissure des réputations a déclenché une alarme mondiale.

Le groupe Eurasia a appelé les outils d’IA « armes de destruction massive. »

« Les progrès technologiques de l’intelligence artificielle éroderont la confiance sociale, autonomiseront les démagogues et les autoritaires, et perturberont les entreprises et les marchés, » le groupe a mis en garde dans un rapport.

« Les progrès des deepfakes, de la reconnaissance faciale et des logiciels de synthèse vocale feront du contrôle de sa ressemblance une relique du passé. »

Cette semaine, la startup d’intelligence artificielle ElevenLabs a admis que son outil de clonage de voix pouvait être utilisé à mauvais escient pour « fins malveillantes » après que les utilisateurs ont publié un deepfake audio prétendant être l’acteur Emma Watson lisant la biographie d’Adolf Hitler « Mein Kampf. »

Elon Musk a tweeté
Elon Musk a tweeté « Ouais. Certainement pas moi » à propos d’une vidéo deepfake de lui prétendument faisant la promotion d’une nouvelle arnaque à la crypto-monnaie.

Le volume croissant de deepfakes pourrait conduire à ce que l’agence européenne d’application de la loi Europol a décrit comme un « l’apocalypse de l’information, » un scénario où de nombreuses personnes sont incapables de distinguer les faits de la fiction.

« Les experts craignent que cela ne conduise à une situation dans laquelle les citoyens n’ont plus une réalité partagée ou ne crée une confusion sociétale quant aux sources d’information fiables, » Europol a déclaré dans un rapport.

Cela a été démontré le week-end dernier lorsque le joueur de la NFL Damar Hamlin s’est adressé à ses fans dans une vidéo pour la première fois depuis qu’il a subi un arrêt cardiaque lors d’un match.

Hamlin a remercié les professionnels de la santé responsables de son rétablissement, mais beaucoup de ceux qui croyaient aux théories du complot selon lesquelles le vaccin COVID-19 était à l’origine de son effondrement sur le terrain ont sans fondement qualifié sa vidéo de deepfake.

‘Super épandeur’

La Chine a appliqué le mois dernier de nouvelles règles qui obligeront les entreprises offrant des services de contrefaçon à obtenir la véritable identité de leurs utilisateurs. Ils exigent également que le contenu deepfake soit étiqueté de manière appropriée pour éviter « toute confusion. »

Les règles sont venues après que le gouvernement chinois a averti que les deepfakes présentaient un « danger pour la sécurité nationale et la stabilité sociale. »

Aux États-Unis, où les législateurs ont fait pression pour qu’un groupe de travail contrôle les deepfakes, les militants des droits numériques mettent en garde contre les excès législatifs qui pourraient tuer l’innovation ou cibler les contenus légitimes.

L’Union européenne, quant à elle, est enfermée dans des discussions animées sur son projet de « Loi sur l’IA. »

La loi, que l’UE s’empresse d’adopter cette année, obligera les utilisateurs à divulguer les deepfakes, mais beaucoup craignent que la législation ne s’avère édentée si elle ne couvre pas le contenu créatif ou satirique.

« Comment rétablir la confiance numérique avec transparence ? C’est la vraie question en ce moment, » Jason Davis, professeur de recherche à l’université de Syracuse, a déclaré à l’AFP.

« Les outils (de détection) arrivent et ils arrivent assez rapidement. Mais la technologie évolue peut-être encore plus vite. Donc, comme la cybersécurité, nous ne résoudrons jamais cela, nous espérons seulement suivre le rythme. »

Beaucoup ont déjà du mal à comprendre les avancées telles que ChatGPT, un chatbot créé par la société américaine OpenAI qui est capable de générer des textes étonnamment convaincants sur presque tous les sujets.

Dans une étude, le chien de garde des médias NewsGuard, qui l’a appelé le « prochain grand super diffuseur de désinformation, » a déclaré que la plupart des réponses du chatbot aux invites liées à des sujets tels que COVID-19 et les fusillades dans les écoles étaient « éloquent, faux et trompeur. »

« Les résultats confirment les craintes… sur la façon dont l’outil peut être transformé en arme entre de mauvaises mains, » a déclaré NewsGuard.