Une application d'IA capable de repérer des vidéos deepfake de personnes célèbres

Une application d’IA capable de repérer des vidéos deepfake de personnes célèbres

CC BY-SA‘ largeur= »800″ hauteur= »530″>
Le président ukrainien Volodymyr Zelensky prononce un discours devant le Parlement japonais pendant la guerre russo-ukrainienne. Crédit : Le bureau présidentiel de l’Ukraine/Wikimedia Commons, CC BY-SA

Un duo de chercheurs, l’un du Gymnasium de Johannes Kepler, l’autre de l’Université de Californie à Berkley, a développé une application d’intelligence artificielle (IA) capable de déterminer si un clip vidéo d’une personne célèbre est authentique ou un deepfake.

Dans leur article publié dans Actes de l’Académie nationale des sciencesMatyáš Boháček et Hany Farid décrivent la formation de leur système d’IA pour reconnaître les mouvements corporels uniques de certains individus afin de discerner si une vidéo était réelle ou non.

À mesure que la technologie deepfake est devenue plus sophistiquée, il est devenu plus difficile de déterminer si une vidéo est authentique. Dans le domaine des personnalités publiques, de telles vidéos peuvent devenir problématiques. Ce fut le cas lorsque des parties en Russie ont récemment créé une vidéo deepfake du président ukrainien Volodymyr Zelenskyy disant des choses qu’il n’a pas réellement dites – une vidéo qui aurait été créée pour aider le gouvernement russe à convaincre ses citoyens de la propagande de l’État russe concernant l’invasion de l’Ukraine. . Dans ce nouvel effort, les chercheurs ont cherché à trouver un moyen d’utiliser la technologie pour distinguer les vraies vidéos des deepfakes.

Boháček et Farid ont commencé par noter qu’en plus des marques corporelles ou des traits du visage, les gens ont d’autres caractéristiques uniques, dont la façon dont ils bougent. Ils ont noté, par exemple, que Zelenskyy a l’habitude de lever le sourcil droit lorsqu’il lève la main gauche. À l’aide de ces informations, ils ont programmé un système d’IA d’apprentissage en profondeur pour étudier les mouvements physiques d’un sujet en analysant plusieurs vidéos d’eux en action.

Au fil du temps, le système s’est amélioré pour reconnaître les actions que les humains ne remarqueraient probablement pas – des actions qui, ensemble, étaient uniques au sujet de la vidéo. Ils ont ensuite testé leur système en analysant plusieurs vidéos deepfake ainsi que de vraies vidéos de différentes personnes. Ils ont découvert que leur système réussissait à 100 % à déterminer lesquels étaient réels et lesquels étaient faux. Il a également réussi à déterminer que la vidéo de Zelenskyy était également fausse.