La recherche introduit une nouvelle approche pour détecter les deepfakes
Recherche publiée dans le Revue internationale d'informatique ad hoc et omniprésenteintroduit une nouvelle approche pour relever les défis posés par la technologie deepfake, qui génère un contenu médiatique manipulé qui ressemble beaucoup à des images authentiques.
La nouvelle méthode combine les modèles miniXception et de mémoire à long terme (LSTM) pour analyser plus efficacement les contenus suspects et identifier les images deepfakes avec une précision supérieure à 99 %.
Alors que les vidéos et images fausses et frauduleuses existent depuis de nombreuses années, le terme « deepfake » fait plus communément référence à des vidéos ou des images manipulées qui ont été créées à l'aide de l'intelligence artificielle et de techniques d'apprentissage profond. Ces technologies permettent aux utilisateurs de superposer ou de remplacer le contenu original d'une image ou d'une vidéo par un autre contenu.
Il arrive souvent que le visage et la voix d'une personne soient truqués dans une vidéo. De tels deepfakes pourraient être utilisés à des fins de divertissement, comme c'est le cas avec de nombreuses applications qui permettent aux utilisateurs ordinaires de créer du contenu « amusant » mettant en vedette leurs amis et leur famille, voire des célébrités.
Cependant, l’utilisation plus insidieuse des deepfakes a attiré l’attention du public en raison de leur potentiel de tromper les téléspectateurs, ce qui suscite souvent des inquiétudes concernant la désinformation, la violation de la vie privée et la manipulation du discours public et politique.
De telles vidéos représentent une menace importante pour la démocratie, dans la mesure où les électeurs et les consommateurs pourraient être exposés à un contenu politique apparemment légitime qui est une fausse propagande malveillante. L’identification des contenus deepfakes est plus importante que jamais à une époque de tensions politiques et de fragilité accrues. Il existe un besoin urgent de méthodes de détection puissantes et de sensibilisation à leur existence et à leurs conséquences potentielles.
Jusqu’à présent, la détection des deepfakes a été entravée par de faibles taux de précision et des difficultés de généralisation à différents ensembles de données. Yong Liu, Xu Zhao et Ruosi Cheng de l'Université d'ingénierie de l'information de la Force de soutien stratégique de l'APL au Henan, Tianning Sun du laboratoire du Zhejiang, Zonghui Wang de l'Université du Zhejiang, en Chine, et Baolan Shi de l'Université du Colorado à Boulder, au Colorado, Les États-Unis ont proposé un modèle qui améliore la précision des approches antérieures.
L'équipe a mené une formation et des tests sur plusieurs ensembles de données, en utilisant des méthodes d'apprentissage par transfert pour améliorer la capacité du modèle à se généraliser sur divers ensembles de données. Ils ont utilisé la perte focale pendant la formation pour équilibrer les échantillons et améliorer encore la généralisation.
Leurs tests démontrent la promesse de cette approche, montrant une précision de détection de 99,05 % sur l'ensemble de données FaceSwap. C'est mieux que les méthodes précédentes, telles que CNN-GRU, et nécessite moins de paramètres pour atteindre ce niveau de réussite.