Comment donner aux jeunes les moyens de lutter contre la menace de la désinformation et de la désinformation
Le Rapport sur les risques mondiaux 2024 du Forum économique mondial a lancé un avertissement sévère : la désinformation et la désinformation, principalement alimentées par les deepfakes, sont classées comme les risques mondiaux à court terme les plus graves auxquels le monde sera confronté au cours des deux prochaines années.
En octobre 2023, le Conseil de l’innovation du Québec partageait le même constat après des mois de consultations auprès des experts et du public.
Cette tromperie numérique, qui exploite l’intelligence artificielle et, plus récemment, l’IA générative, pour créer des fabrications hyperréalistes, va au-delà d’une merveille technologique ; cela constitue une menace sociétale profonde.
En réponse aux lacunes dans la lutte efficace contre les deepfakes avec la seule technologie et la législation, un projet de recherche dirigé par mon équipe et moi-même met en lumière une solution vitale : l’intervention humaine par l’éducation.
Les solutions technologiques seules ne suffisent pas
Malgré le développement continu des outils de détection des deepfakes, ces solutions technologiques s’empressent de rattraper les capacités en évolution rapide des algorithmes de deepfake.
Les systèmes juridiques et les gouvernements ont du mal à suivre le rythme de cette progression rapide de la tromperie numérique.
Il est urgent que l’éducation adopte une approche plus sérieuse, agressive et stratégique pour équiper les jeunes à combattre cette menace imminente.
Problèmes de désinformation politique
Le risque de polarisation politique est particulièrement alarmant.
Près de trois milliards de personnes devraient voter dans des pays comme le Bangladesh, l’Inde, l’Indonésie, le Mexique, le Pakistan, le Royaume-Uni et les États-Unis au cours des deux prochaines années.
Les campagnes de désinformation menacent de saper la légitimité des gouvernements nouvellement élus.
Des deepfakes de personnalités éminentes comme le mannequin palestino-américain Bella Hadid et d’autres ont été manipulés pour falsifier leurs déclarations politiques, illustrant ainsi la capacité de la technologie à influencer l’opinion publique et à fausser les récits politiques.
Un deepfake de Greta Thunberg prônant les « grenades végétaliennes » met en évidence l’utilisation néfaste de cette technologie.
Le dévoilement par Meta d’un assistant IA présentant des portraits de célébrités soulève des inquiétudes quant à une utilisation abusive et à la propagation de la désinformation.
Fraude financière, préjudices pornographiques
Sans surprise, les vidéos Deepfake sont également exploitées pour commettre une fraude financière.
Le populaire YouTuber MrBeast a été usurpé dans une arnaque deepfake sur TikTok, promettant faussement un cadeau iPhone 15 qui a conduit à une tromperie financière.
Ces incidents mettent en évidence la vulnérabilité aux fraudes et escroqueries sophistiquées basées sur l’IA ciblant les personnes de tous âges.
La pornographie deepfake représente une grave préoccupation pour les jeunes comme pour les adultes, dans laquelle les visages des individus sont superposés de manière non consensuelle à un contenu explicite. De fausses images sexuellement explicites de Taylor Swift se sont répandues sur les réseaux sociaux avant que les plateformes ne les suppriment. L’un d’eux a été vu plus de 45 millions de fois.
Approches politiques et technologiques
La politique de Meta oblige désormais les annonceurs politiques à divulguer toute manipulation de l’IA dans les publicités, une décision reflétée par Google.
Neil Zhang, titulaire d’un doctorat. étudiant à l’Université de Rochester, développe des outils de détection pour les deepfakes audio, notamment des algorithmes avancés et des techniques de filigrane.
Les États-Unis ont introduit plusieurs lois : le Deepfakes Accountability Act de 2023, le No AI FRAUD Act protégeant les identités contre l’utilisation abusive de l’IA et le Preventing Deepfakes of Intimate Images Act ciblant les deepfakes pornographiques non consensuels.
Au Canada, les législateurs ont proposé le projet de loi C-27 et la Loi sur l’intelligence artificielle et les données (AIDA) qui mettent l’accent sur la transparence de l’IA et la confidentialité des données.
Le Royaume-Uni a adopté son projet de loi sur la sécurité en ligne. L’UE a récemment annoncé un accord provisoire concernant sa loi sur l’IA ; La directive européenne sur la responsabilité en matière d’IA aborde des questions plus larges de sécurité en ligne et de réglementation de l’IA.
Le gouvernement indien a annoncé son intention d’élaborer une réglementation ciblant les deepfakes.
Ces mesures reflètent les engagements mondiaux croissants visant à freiner les effets pernicieux des deepfakes. Cependant, ces efforts sont insuffisants pour contenir, et encore moins arrêter, la prolifération des deepfakes.
Étude de recherche auprès des jeunes
Les recherches que j’ai menées avec des collègues et financées par le Conseil de recherches en sciences humaines (CRSH) et Patrimoine canadien révèlent comment l’autonomisation des jeunes grâce à l’agence numérique peut être une force contre la marée montante de désinformation alimentée par les technologies de deepfake et d’intelligence artificielle.
Notre étude s’est concentrée sur la manière dont les jeunes perçoivent l’impact des deepfakes sur des problèmes critiques et sur leur propre processus de construction de connaissances dans des contextes numériques. Nous avons exploré leur capacité et leur volonté de contrebalancer efficacement la désinformation.
L’étude a réuni des étudiants universitaires canadiens, âgés de 18 à 24 ans, pour une série d’ateliers pratiques, d’entretiens individuels approfondis et de discussions de groupe.
Les participants ont créé des deepfakes, acquérant ainsi une compréhension directe de la facilité d’accès et d’utilisation de cette technologie ainsi que de son potentiel d’utilisation abusive. Cet apprentissage expérientiel s’est avéré inestimable pour démystifier la facilité avec laquelle les deepfakes sont générés.
Les participants ont initialement perçu les deepfakes comme un élément incontrôlable et inévitable du paysage numérique.
Grâce à l’engagement et aux discussions, ils sont passés du statut de spectateurs passifs des deepfakes à une prise de conscience plus profonde de leur grave menace. Surtout, ils ont également développé un sens des responsabilités dans la prévention et l’atténuation de la propagation des deepfakes, ainsi qu’une volonté de contrer les deepfakes.
Les étudiants ont partagé des recommandations d’actions concrètes, notamment en exhortant les systèmes éducatifs à responsabiliser les jeunes et à les aider à reconnaître que leurs actions peuvent faire la différence. Ceci comprend:
- enseigner les effets néfastes de la désinformation sur la société ;
- fournir des espaces permettant aux jeunes de réfléchir et de remettre en question les normes sociétales, de les informer sur les politiques en matière de médias sociaux et de décrire les contenus autorisés et interdits ;
- former les étudiants à reconnaître les deepfakes en les exposant à la technologie qui les sous-tend ;
- encourager l’implication dans des causes significatives tout en restant attentif à la désinformation et en guidant les jeunes dans une lutte respectueuse et productive contre la désinformation.
Une stratégie à multiples facettes est nécessaire
Sur la base de nos recherches et des recommandations des participants, nous proposons une stratégie multiforme pour contrer la prolifération des deepfakes.
L’éducation Deepfake doit être intégrée dans les programmes éducatifs, tout en favorisant la pensée critique et l’action numérique chez nos jeunes. Les jeunes doivent être encouragés à participer de manière active, mais sûre, bien informée et stratégique à la lutte contre les deepfakes malveillants dans les espaces numériques.
Nous soulignons l’importance des expériences d’apprentissage collaboratif pratiques. Nous plaidons également en faveur d’une approche éducative interdisciplinaire alliant technologie, psychologie, études des médias et éthique pour saisir pleinement les implications des deepfakes.
L’élément humain
Nos recherches mettent en évidence une prise de conscience cruciale : l’élément humain, en particulier le rôle de l’éducation, est indispensable dans la lutte contre les deepfakes. Nous ne pouvons pas compter uniquement sur la technologie et les solutions juridiques.
En dotant les jeunes générations, mais aussi chaque membre de notre société, des compétences nécessaires pour analyser de manière critique et contester la désinformation, nous entretenons une société instruite sur le numérique, suffisamment résiliente pour résister au pouvoir manipulateur des deepfakes.
Pour ce faire, nous devons faire comprendre aux gens qu’ils ont un rôle et une capacité d’action dans la sauvegarde de l’intégrité de notre monde numérique.
