L’IA a tellement progressé que le problème ne concerne pas seulement les deepfakes. C'est juste qu'on se méfie même des vraies photos
Les deepfakes, fausses images générées par des modèles d’IA génératifs, sont de plus en plus convaincants. Ils nous ont fait penser que peut-être le Pape était vêtu d’un anorak très moderne ou que Donald Trump était en train d’être arrêté de force. Nous devons être de plus en plus attentifs aux images que nous voyons sur les réseaux sociaux, mais pas seulement à celles qui sont fausses, mais aussi à celles qui sont vraies,
Chasser la désinformation. Elliot Higgins est un analyste OSINT (Open Source Intelligence). Il a commencé il y a quelques années à rassembler ses découvertes sur un site internet appelé Bellingcat, et depuis, son agence est devenue une référence dans ce domaine. Il enquête sur tous types d’événements et, ces derniers temps, il sait que le défi actuel en matière de désinformation est posé par l’intelligence artificielle.
Tromper les deux côtés. Comme il l'a déclaré dans une récente interview avec Wired, « Quand les gens pensent à l'IA, ils pensent : 'Oh, elle va inciter les gens à croire des choses qui ne sont pas vraies.' » Mais ce qu'elle fait en réalité, c'est donner la permission aux gens de ne pas le faire. croire des choses qui sont vraies. En d’autres termes, c’est tout le contraire.
On ne fait plus confiance à ce qui est vrai. Avec autant de désinformation, les deepfakes et l'IA peuvent également finir par nous amener à ne pas croire ce que nous voyons et à penser que « oh, c'est une autre image générée par l'IA » alors qu'en réalité c'est une image et une situation légitime.
Réel ou artificiel ? Il l'a démontré récemment en rééditant une image singulière. Un site Internet qui détecte théoriquement les images générées par l'IA affirme que cette photo du journaliste assiégé par des dizaines de personnes a probablement été générée par l'intelligence artificielle. Mais le problème est que l'image était réelle (il y en a d'autres de cet événement), donc le service de détection a échoué.
Le danger des machines d’identification avec photo. Ces systèmes de photodétection nous conditionnent car nous pouvons faire confiance à leurs conclusions. C'est ce qu'a récemment rapporté une photographe qui envoie ses photos sur Instagram et qui voit comment les photos conventionnelles qu'elle envoie au service sont détectées comme générées par l'IA.
Mais nous pouvons aussi faire des erreurs. Il ne semble pas que les systèmes de détection automatique fonctionnent dans ces cas-là, mais nos yeux peuvent aussi nous tromper : l'évolution de plateformes comme Midjourney a montré que le photoréalisme que ces modèles d'IA génératifs peuvent atteindre est étonnant, et il est de plus en plus difficile de distinguer la réalité. .fictif.
Et attends, il nous reste la vidéo. En réalité, les images ne sont qu’une partie du problème : la génération de deepfakes de personnes qui disent des choses cohérentes, bougent leurs lèvres de manière cohérente lorsqu’elles les disent et qui semblent certainement légitimes est en train de se perfectionner. Si la vidéo est fausse mais raisonnable, on peut y croire. Et cela signifie que même si la vidéo est réelle, nous ne pourrons pas y croire.
Images | Almal3003.01 avec Midjourney
À Simseo | Les deepfakes qui ont du succès en Chine ne sont pas célèbres. Ils viennent d'êtres chers décédés