L’IA rend plus difficile que jamais la détection des contrefaçons profondes, mais la sensibilisation est essentielle, selon un expert
Alors que les programmes d’intelligence artificielle continuent de se développer et que l’accès est plus facile que jamais, il est plus difficile de séparer les faits de la fiction. Cette semaine encore, une image générée par l’IA d’une explosion près du Pentagone a fait la une des journaux en ligne et a même légèrement impacté le marché boursier jusqu’à ce qu’elle soit rapidement considérée comme un canular.
Cayce Myers, professeur à l’école de communication de Virginia Tech, a étudié cette technologie en constante évolution et partage son point de vue sur l’avenir des contrefaçons profondes et comment les repérer.
« Il devient de plus en plus difficile d’identifier la désinformation, en particulier les faux profonds générés par l’IA sophistiquée », déclare Myers. « La barrière des coûts pour l’IA générative est également si faible que maintenant presque toute personne disposant d’un ordinateur et d’Internet a accès à l’IA. »
Myers pense qu’à cause de cela, nous verrons beaucoup plus de désinformation, à la fois visuelle et écrite, au cours des prochaines années. « Repérer cette désinformation va exiger des utilisateurs qu’ils aient plus de connaissances médiatiques et de savoir-faire pour examiner la véracité de toute affirmation. »
Alors que les programmes Photoshop sont utilisés depuis des années, Myers affirme que la différence entre cela et la désinformation créée avec l’IA est une question de sophistication et de portée. « Photoshop autorise les fausses images, mais l’IA peut créer des vidéos modifiées qui sont très convaincantes. Étant donné que la désinformation est désormais une source répandue de contenu en ligne, ce type de faux contenu d’actualités peut atteindre un public beaucoup plus large, surtout si le contenu devient viral. »
En ce qui concerne la lutte contre la désinformation, Myers dit qu’il existe deux sources principales : nous-mêmes et les sociétés d’IA.
« Examiner les sources, comprendre les signes avant-coureurs de la désinformation et faire preuve de diligence dans ce que nous partageons en ligne est une façon personnelle de lutter contre la propagation de la désinformation », a-t-il déclaré. « Cependant, cela ne suffira pas. Les entreprises qui produisent du contenu d’IA et les entreprises de médias sociaux où la désinformation se propage devront mettre en place un certain niveau de garde-corps pour empêcher la propagation de la désinformation généralisée. »
Myers explique que le problème est que la technologie de l’IA s’est développée si rapidement qu’il est probable que tout mécanisme visant à empêcher la propagation de la désinformation générée par l’IA ne sera pas entièrement fiable.
Des tentatives de réglementation de l’IA sont en cours aux États-Unis au niveau fédéral, étatique et même local. Les législateurs examinent diverses questions, notamment la désinformation, la discrimination, la violation de la propriété intellectuelle et la confidentialité.
« Le problème est que les législateurs ne veulent pas créer une nouvelle loi réglementant l’IA avant de savoir où va la technologie. Créer une loi trop rapidement peut étouffer le développement et la croissance de l’IA, en créer une trop lente peut ouvrir la porte à beaucoup de potentiel trouver un équilibre sera un défi », déclare Myers.