Adobe crée un « filigrane » pour les images générées par l’IA. Une autre chose est que cela fonctionne
Le dernier hit de Drake et The Weeknd est génial, mais ce n’était pas le leur, il a été fait par une IA. La photo qui a remporté le Sony World Photography Award est spectaculaire, mais même les juges n’ont pas réalisé qu’elle avait également été créée avec une IA générative. On n’arrête pas de voir des images, de la musique et même quelques autres vidéos étonnantes, et cela pose un problème : différencier ce qui a été créé par l’homme et ce qui a été créé par l’IA.
Une alliance pour l’authenticité du contenu. Adobe dirige la soi-disant Content Authenticity Initiative (CAI), un consortium de près de 1 000 membres comprenant des sociétés de contenu, des startups technologiques ou des fabricants d’appareils photo. Son objectif ? Créer une série de normes permettant de confirmer l’authenticité du contenu numérique.
Deepfakes et faux contenus. L’entreprise a créé le groupe en 2019, mais c’est maintenant que son travail est devenu plus important que jamais face à l’assaut des contenus générés par l’IA. Surtout en ce qui concerne les deepfakes qui sortent du cadre des mèmes et qui peuvent aider à la désinformation. Les images du Pape ou de Donald Trump devenues virales sont une bonne démonstration du problème. Que faire ?
Filigranes. La solution proposée par le CAI consiste à utiliser un « hachage cryptographique de ressources pour fournir des signatures vérifiables et infalsifiables », qui seraient ensuite modifiées pour refléter toute altération. Le groupe assimile la norme à une « étiquette nutritionnelle » pour les contenus numériques. Il s’agirait essentiellement de quelque chose de similaire à un filigrane invisible qui serait appliqué à tout le contenu généré par l’IA afin de confirmer s’il est généré ou non par ce type de système.
Contenu avec antécédents médicaux. Ces filigranes cryptographiques signifient que lors de la création de contenu, l’auteur peut choisir de conserver l’attribution ou de rester anonyme. Même lors de l’édition d’images avec Photoshop, par exemple, des métadonnées peuvent être capturées et une sorte d ‘ »historique des modifications » est créée pour le contenu afin de savoir comment et quand il a été modifié. Ce contenu peut ensuite être consulté, historique inclus, avec des outils comme Verify.
Mais il y a un plus grand défi. La solution technologique existe, mais la mesure ne sera efficace que si elle est appliquée à grande échelle. Cela signifie que cette « labellisation » ne fonctionnera que si un grand nombre d’entreprises l’appliquent. C’est là qu’Adobe, une référence sur le marché, peut vous aider. Des fabricants comme Nikon ou Leica ont déjà accepté d’intégrer la technologie dans certains de leurs appareils photo, et le CAI s’attend à ce que des membres comme l’Associated Press ou le Washington Post mettent en œuvre cette norme.
Open Source et interopérable. Le travail du CAI est également un développement Open Source qui permet l’utilisation d’outils interopérables. Sa proposition est conforme au cahier des charges émis en 2022 par la Coalition for Content Provenance and Authenticity (C2PA), une organisation qui travaille précisément dans ce même sens. Des entreprises telles qu’Adobe lui-même, la BBC, Intel, Microsoft ou Sony y sont intégrées, et la spécification est disponible sur GitHub depuis deux ans maintenant. Comme dans le cas du CAI, l’objectif est de « donner aux éditeurs, créateurs et consommateurs la possibilité de retracer l’origine des différents types de médias ».
Tout n’est pas rose. Neal Krawetz, un expert en cybersécurité, a donné une vision quelque peu différente de ces initiatives chez Hacker Factor. Selon lui, CAI n’a fait que gérer son site Web, et il a critiqué le fait que CAI et C2PA sont des consortiums fermés à la participation indépendante. Pour lui, il y a une autre option.
JPEG FMLe groupe de travail JPEG qui développe cette norme bien connue a créé un groupe de travail appelé JPEG-FM (pour Fake Media, « fake content »). Le processus est beaucoup plus ouvert et public, et l’objectif est le même : apporter des solutions à la désinformation, aux altérations ou aux fausses représentations dans le contenu.
TinyEye et hachages perceptuels. Krawezt a également fait allusion à une autre solution possible au problème. Ce sont les soi-disant hachages perceptifs, dont il a parlé dans une récente conférence, et qui sont différents des hachages cryptographiques qu’Adobe entend utiliser. C’est sur cette technologie que repose, par exemple, TinyEye, une plateforme de recherche d’images inversées qui, entre autres, permet de trouver et de vérifier des images protégées par le droit d’auteur.
Ça va marcher? La vérité est que les concepts techniques des deux propositions semblent solides et offrent une solution potentielle au problème. Il existe bien sûr d’autres solutions, comme l’identifiant OpenAI lui-même. L’enjeu, comme nous l’avons dit, est leur application massive : si l’industrie (et les utilisateurs) ne commencent pas à profiter de ces solutions lorsqu’elles seront réellement disponibles, il sera difficile de faire face à une situation prévisible : celle d’une avalanche d’IA. -contenu généré qu’ils seront également pratiquement impossibles à distinguer de ceux qui peuvent être créés par les humains.