La détection des deepfakes s'améliore grâce à l'utilisation d'algorithmes plus conscients de la diversité démographique
Les deepfakes – qui consistent essentiellement à mettre des mots dans la bouche de quelqu'un d'autre d'une manière très crédible – deviennent de jour en jour plus sophistiqués et de plus en plus difficiles à repérer. Des exemples récents de deepfakes incluent des images nues de Taylor Swift, un enregistrement audio du président Joe Biden disant aux habitants du New Hampshire de ne pas voter et une vidéo du président ukrainien Volodymyr Zelenskyy appelant ses troupes à déposer les armes.
Bien que les entreprises aient créé des détecteurs pour aider à détecter les deepfakes, des études ont montré que les biais dans les données utilisées pour former ces outils peuvent conduire à cibler injustement certains groupes démographiques.
Mon équipe et moi avons découvert de nouvelles méthodes qui améliorent à la fois l’équité et la précision des algorithmes utilisés pour détecter les deepfakes.
Pour ce faire, nous avons utilisé un vaste ensemble de données de contrefaçons faciales qui permettent à des chercheurs comme nous d’entraîner nos approches d’apprentissage en profondeur. Nous avons construit notre travail autour de l'algorithme de détection de pointe Xception, qui constitue une base largement utilisée pour les systèmes de détection des deepfakes et peut détecter les deepfakes avec une précision de 91,5 %.
Nous avons créé deux méthodes distinctes de détection des deepfakes destinées à encourager l’équité.
L’un visait à rendre l’algorithme plus conscient de la diversité démographique en étiquetant les ensembles de données par sexe et par race afin de minimiser les erreurs parmi les groupes sous-représentés.
L’autre visait à améliorer l’équité sans s’appuyer sur des étiquettes démographiques en se concentrant plutôt sur des caractéristiques non visibles à l’œil humain.
Il s’avère que la première méthode fonctionne le mieux. Cela a augmenté les taux de précision de la base de 91,5 % à 94,17 %, ce qui représente une augmentation plus importante que notre deuxième méthode ainsi que plusieurs autres que nous avons testées. De plus, cela a accru la précision tout en améliorant l’équité, ce qui était notre objectif principal.
Nous pensons que l’équité et l’exactitude sont essentielles si le public veut accepter la technologie de l’intelligence artificielle. Lorsque de grands modèles linguistiques comme ChatGPT « hallucinent », ils peuvent perpétuer des informations erronées. Cela affecte la confiance et la sécurité du public.
De même, les images et vidéos deepfakes peuvent nuire à l’adoption de l’IA si elles ne peuvent pas être détectées rapidement et avec précision. Améliorer l’équité de ces algorithmes de détection afin que certains groupes démographiques ne soient pas lésés de manière disproportionnée est un aspect clé à cet égard.
Nos recherches portent sur l’équité des algorithmes de détection des deepfakes, plutôt que de simplement tenter d’équilibrer les données. Il propose une nouvelle approche de la conception d’algorithmes qui considère l’équité démographique comme un aspect essentiel.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.