La recherche révèle des «vulnérabilités majeures» dans les détecteurs profonds
Une équipe internationale de chercheurs appelle à des améliorations urgentes dans les technologies de détection DeepFake après avoir découvert des défauts critiques dans des outils de détection largement utilisés.
Une étude de CSIRO, l’Australie National Science Agency et l’Université SungkyUnkwan (SKKU) de la Corée du Sud, a évalué 16 détecteurs de premier plan et n’a trouvé aucun ne pouvait identifier de manière fiable les Fearfakes du monde réel. L’étude est publiée sur le arxiv serveur de préimprimée.
Deepfakes sont des médias synthétiques générés par l’intelligence artificielle (IA) qui peuvent manipuler des images, des vidéos ou des audio pour créer un contenu hyper réaliste mais faux, soulevant des préoccupations concernant la désinformation, la fraude et les violations de la vie privée.
L’expert en cybersécurité du CSIRO, le Dr Sharif Abuadbba, a déclaré que la disponibilité de l’IA génératrice a alimenté l’augmentation rapide des Fakes Deep, qui sont moins chers et plus faciles à créer que jamais.
« Les Facked sont de plus en plus trompeurs et capables de répandre une désinformation, il y a donc un besoin urgent de solutions plus adaptables et résilientes pour les détecter », a déclaré le Dr Abuadbba.
« Au fur et à mesure que Deep Fakes devient plus convaincant, la détection doit se concentrer sur le sens et le contexte plutôt que sur l’apparence seule. En décomposant les méthodes de détection dans leurs composantes fondamentales et en les soumettant à des tests rigoureux avec des fesses profondes du monde réel, nous permettons le développement d’outils mieux équipés pour contrer une gamme de scénarios. »
Les chercheurs ont développé un cadre en cinq étapes qui évalue les outils de détection basés sur le type DeepFake, la méthode de détection, la préparation des données, la formation du modèle et la validation. Il identifie 18 facteurs affectant la précision, allant de la façon dont les données sont traitées à la façon dont les modèles sont formés et testés.
Le professeur Skku, Simon S. Woo, a déclaré que la collaboration entre CSIRO et SKKU a fait avancer la compréhension du domaine des vulnérabilités du modèle de détection.
« Cette étude a approfondi notre compréhension de la fonctionnalité des détecteurs DeepFake dans des conditions réelles, exposant des vulnérabilités majeures et ouvrant la voie à des solutions plus résilientes », a-t-il déclaré.
L’étude a également révélé que de nombreux détecteurs actuels luttent face à des foldages profonds qui ne relèvent pas de leurs données de formation.
Par exemple, le détecteur TIC (transformateur cohérent d’identité), qui a été formé sur les visages de célébrités, était nettement moins efficace pour détecter les foldages profonds avec des non-cellules.
L’expert en cybersécurité du CSIRO, le Dr Kristen Moore, a expliqué que l’utilisation de détecteurs multiples et diverses sources de données renforce la détection profonde.
« Nous développons des modèles de détection qui intègrent l’audio, le texte, les images et les métadonnées pour des résultats plus fiables », a déclaré le Dr Moore. « Des stratégies proactives, telles que les techniques d’empreintes digitales qui suivent les origines profondes, améliorent les efforts de détection et d’atténuation.
« Pour suivre le rythme de l’évolution des FAKED, les modèles de détection devraient également chercher à incorporer des ensembles de données, des données synthétiques et une analyse contextuelle, allant au-delà des images ou de l’audio. »