Différencier le contenu de l’IA sur Internet est de plus en plus difficile. La solution est quelque chose de similaire aux steaks

Différencier le contenu de l’IA sur Internet est de plus en plus difficile. La solution est quelque chose de similaire aux steaks

La photo que vous voyez n’est peut-être pas réelle. Cette vidéo, cette chanson non plus. Cette photo, cette vidéo ou cette musique ont peut-être été partiellement ou totalement générées avec l'intelligence artificielle, et le problème est là : il n'y a aucun moyen de le savoir, et il y a de plus en plus de contenus de ce type. Comment le résoudre ?

C2PA. La Coalition pour la provenance et l'authenticité du contenu (C2PA) est devenue l'une des options les plus intéressantes pour offrir quelque chose de plus important : des informations sur l'origine d'une image. La traçabilité que la technologie rend possible dans de nombreuses industries – il est possible grâce à elle de garder la trace du steak que vous avez mangé hier – est une option prometteuse pour le contenu qui inonde Internet.

De plus en plus d’entreprises impliquées. Adobe, Amazon, BBC, Google, Intel, Meta, Microsoft, Publicis, OpenAI, Sony et TruePic sont les principaux membres de cette alliance qui vise à « fournir aux groupes d'édition, aux créateurs et aux consommateurs la possibilité de retracer l'origine des différents types d'objets ». des médias ».

Des étiquettes avec beaucoup d'informations. Les technologies C2PA, avec en tête la spécification Content Credentials, permettent d'ajouter des sortes de « tags » au contenu, des métadonnées qui révèlent son origine, mais aussi toutes les étapes par lesquelles ce contenu est passé. Pas seulement la façon dont ils ont été créés : une capture d’appareil photo ? une invite de l'IA ? – mais quand, qui et comment les a modifiés – quelqu'un l'a-t-il téléchargé sur Instagram en appliquant un filtre ? Quelqu'un l'a-t-il modifié avec l'éditeur magique Android, supprimé des objets et mis un ciel différent ?

Ils sont (pour le moment) invisibles, mais très complets. Ces balises peuvent ensuite être consultées avec une application simple qui nous « dira » tout sur l'image : aussi bien son origine que ses variantes possibles. On s'attendrait à une sorte de « cachet » d'identification, par exemple pour les images générées par l'IA, qui permettrait de vérifier rapidement leur origine, mais pour l'instant cette visibilité n'existe pas.

Ni The Rock, ni Tom Cruise. C'est l'acteur le plus riche du monde avec une fortune de 1,4 milliard de dollars

Une excellente idée pour lutter contre les deepfakes. La proposition C2PA est une solution potentielle au problème inquiétant que nous rencontrons avec les images générées par l’IA. Pas tant à cause des illustrations virales et inoffensives – cela aussi – mais à cause de l'énorme quantité de deepfakes (fausses images) qui sont utilisées pour influencer l'opinion publique et qui, par exemple, peuvent déséquilibrer des processus électoraux comme celui qui va bientôt se produire. se tiendra aux élections présidentielles aux États-Unis.

Mais ça va lentement. Même si l’idée est prometteuse, sa mise en œuvre est lente. Par exemple, seuls quelques appareils photo intègrent les informations C2PA dans chaque photo – le Leica M11-P ou le Sony Alpha 7 IV, par exemple – mais ceux qui devraient le faire le plus tôt possible sont les appareils photo de nos téléphones portables, et c'est ce n’est pas encore le cas, comme l’indique The Verge. Il n’est pas certain que cela se produira, en fait, mais ce serait une étape fondamentale pour que cette proposition réussisse. Google est membre de la coalition, mais Apple, qui devrait théoriquement soutenir cet effort, ne l'est pas. Il est également particulièrement important que les grands réseaux sociaux se joignent à cet effort : dans Meta, ils essaient déjà de le faire, mais pas dans X pour le moment.

pas à pas. La vérité est que ces derniers mois, nous constatons des progrès et des cas dans lesquels certaines plateformes commencent à mettre en œuvre ces mesures. Google en a déjà parlé et YouTube vient de le faire avec une étiquette appelée « capturée par la caméra » qui identifie les vidéos téléchargées sur la plateforme avec leurs images et leur son inchangés. OpenAI a également commencé à adopter C2PA dans DALL-E 3, et même TikTok a commencé à proposer sa solution en dehors de la coalition C2PA. Et pendant ce temps, l’UE met en garde : les entreprises technologiques comme Google ou Meta doivent commencer à étiqueter le contenu généré par l’IA pour éviter les campagnes de désinformation.

Images | Dcyberskull avec Midjourney

À Simseo | Wikipédia se remplit de contenu généré par l'IA. À tel point qu’il dispose déjà d’une équipe dédiée à sa recherche.