Cacher les codes secrètes à la lumière peut protéger contre les fausses vidéos
Les vérificateurs de faits peuvent avoir un nouvel outil dans la lutte contre la désinformation.
Une équipe de chercheurs de Cornell a développé un moyen de « filigraner » des vidéos, qu'ils peuvent utiliser pour détecter si la vidéo est fausse ou a été manipulée.
L'idée est de masquer des informations dans des fluctuations presque invisibles de l'éclairage à des événements et des emplacements importants, tels que des entretiens et des conférences de presse ou même des bâtiments entiers, comme le siège des Nations Unies. Ces fluctuations sont conçues pour passer inaperçues par les humains, mais sont enregistrées comme un filigrane caché dans toute vidéo capturée sous l'éclairage spécial, qui pourrait être programmé dans des écrans d'ordinateur, des lampes de photographie et un éclairage intégré. Chaque source de lumière filigranée a un code secret qui peut être utilisé pour vérifier le filigrane correspondant dans la vidéo et révéler tout montage malveillant.
Peter Michael, un étudiant diplômé dans le domaine de l'informatique qui a dirigé le travail, présentera l'étude, «l'éclairage codé de bruit pour la vidéo médico-légale et photométrique», le 10 août au Siggraph 2025 à Vancouver, en Colombie-Britannique.
Éditer des séquences vidéo d'une manière trompeuse n'est pas nouveau. Mais avec une IA générative et des médias sociaux, il est plus rapide et plus facile de diffuser une désinformation que jamais.
« La vidéo était traitée comme une source de vérité, mais ce n'est plus une supposition que nous pouvons faire », a déclaré Abe Davis, professeur adjoint d'informatique au Cornell Ann S. Bowers College of Computing and Information Science, qui a conçu l'idée pour la première fois. « Maintenant, vous pouvez à peu près créer une vidéo de ce que vous voulez. Cela peut être amusant, mais aussi problématique, car il devient de plus en plus difficile de dire ce qui est réel. »
Pour répondre à ces préoccupations, les chercheurs avaient précédemment conçu des techniques pour filigraner directement les fichiers vidéo numériques, avec de minuscules modifications à des pixels spécifiques qui peuvent être utilisés pour identifier des images non manipulées ou dire si une vidéo a été créée par l'IA. Cependant, ces approches dépendent du créateur de vidéos à l'aide d'une caméra spécifique ou d'un modèle d'IA – un niveau de conformité qui peut être irréaliste d'attendre des mauvais acteurs potentiels.
En intégrant le code dans l'éclairage, la nouvelle méthode garantit que toute véritable vidéo du sujet contient le filigrane secret, peu importe qui l'a capturé. L'équipe a montré que les sources d'éclairage programmables, comme les écrans d'ordinateur et certains types d'éclairage de pièce, peuvent être codées avec un petit logiciel, tandis que des lumières plus anciennes, comme de nombreuses lampes standard, peuvent être codées en attachant une petite puce d'ordinateur sur la taille d'un timbre-poste. Le programme sur la puce varie la luminosité de la lumière selon le code secret.

Alors, quelles informations secrètes sont cachées dans ces filigranes, et comment se révèle-t-il lorsque la vidéo est fausse? « Chaque filigrane propose une version horrible à faible fidélité de la vidéo non manipulée sous un éclairage légèrement différent. Nous appelons ces vidéos de code », a déclaré Davis. « Quand quelqu'un manipule une vidéo, les parties manipulées commencent à contredire ce que nous voyons dans ces vidéos de code, ce qui nous permet de voir où les modifications ont été apportées. Et si quelqu'un essaie de générer de fausses vidéos avec l'IA, les vidéos de code résultantes ressemblent à des variations aléatoires. »
Une partie du défi dans ce travail a été de faire en sorte que le code soit largement imperceptible pour les humains. « Nous avons utilisé des études de la littérature sur la perception humaine pour éclairer notre conception de la lumière codée », a déclaré Michael. « Le code est également conçu pour ressembler à des variations aléatoires qui se produisent déjà dans la lumière appelée« bruit », ce qui rend également difficile la détection, à moins que vous ne connaissiez le code secret.»
Si un adversaire réduit les images, comme dans une interview ou un discours politique, un analyste médico-légal avec le code secret peut voir les lacunes. Et si l'adversaire ajoute ou remplace des objets, les pièces modifiées semblent généralement noires dans des vidéos de code récupérées.
L'équipe a réussi jusqu'à trois codes distincts pour différentes lumières de la même scène. Avec chaque code supplémentaire, les modèles deviennent plus compliqués et plus difficiles à simuler.
« Même si un adversaire sait que la technique est utilisée et comprend en quelque sorte les codes, son travail est encore beaucoup plus difficile », a déclaré Davis. « Au lieu de simuler la lumière pour une seule vidéo, ils doivent simuler chaque vidéo de code séparément, et tous ces contrefaçons doivent être d'accord. »
Ils ont également vérifié que cette approche fonctionne dans certains contextes extérieurs et sur des personnes avec des tons de peau différents.
Davis et Michael ont cependant mis en garde que la lutte contre la désinformation est une course aux armements, et les adversaires continueront de concevoir de nouvelles façons de tromper.
« Il s'agit d'un problème en cours important », a déclaré Davis. « Ça ne va pas disparaître, et en fait, ça ne fera que devenir plus difficile. »
