Nouvel outil d’IA pour lutter contre les images deepfake malveillantes
L'Université Monash et la police fédérale australienne (AFP) s'associent pour renverser la situation technologique face aux cybercriminels grâce à une dose de poison numérique.
Le laboratoire AI for Law Enforcement and Community Safety (AiLECS), une collaboration entre l'AFP et l'Université Monash, développe un nouvel outil de perturbation qui, parmi ses applications étendues, peut ralentir et arrêter les criminels produisant du matériel pédopornographique généré par l'IA, de la propagande technologique extrémiste et des images et vidéos truquées.
Connu sous le nom d'« empoisonnement des données », il s'agit d'une altération subtile des données qui rend beaucoup plus difficile la production, la manipulation et l'utilisation abusive d'images ou de vidéos à l'aide de programmes d'IA.
L'IA et les outils d'apprentissage automatique (ML) nécessitent des quantités importantes de données en ligne pour produire du contenu généré par l'IA. Ainsi, en empoisonnant ces données, les modèles d'IA créent ensuite des résultats inexacts, faussés ou corrompus. Cela facilite également la détection d’une image ou d’une vidéo falsifiée créée par des criminels.
Le perturbateur de l'IA, appelé « Silverer », en est au stade du prototype. Il est en développement depuis 12 mois sous la direction d'un chercheur et chef de projet d'AiLECS, Ph.D. la candidate Elizabeth Perry.
Perry a déclaré que le nom était un clin d'œil à l'argent utilisé pour fabriquer des miroirs. De même, l'outil serait utilisé pour créer des reflets d'une image originale. « Dans ce cas, c'est comme glisser de l'argent derrière une vitre, alors quand quelqu'un essaie de regarder à travers, il se retrouve avec un reflet complètement inutile », a-t-elle déclaré.
« Avant qu'une personne télécharge des images sur les réseaux sociaux ou sur Internet, elle peut les modifier à l'aide de Silverer. Cela modifiera les pixels pour tromper les modèles d'IA et les générations résultantes seront de très mauvaise qualité, couvertes de motifs flous ou complètement méconnaissables. »
L'expert en criminalistique numérique et professeur agrégé co-directeur d'AiLECS, Campbell Wilson, a déclaré que la génération d'images fausses et malveillantes devenait un problème de plus en plus problématique.
« Actuellement, ces images et vidéos nuisibles générées par l'IA sont relativement faciles à créer à l'aide d'une technologie open source et il existe une très faible barrière à l'entrée pour que les gens utilisent ces algorithmes », a déclaré le professeur agrégé Wilson.
L'AFP a identifié une augmentation du matériel pédopornographique généré par l'IA, les criminels tirant parti de la technologie pour produire et partager des quantités importantes de faux contenus explicites en ligne.
Le commandant de l'AFP, Rob Nelson, a déclaré que les technologies d'empoisonnement des données en étaient encore à leurs balbutiements et étaient en cours de test, mais qu'elles montraient des premiers résultats prometteurs en termes de capacité d'application de la loi. « Là où nous constatons des applications puissantes, c'est dans l'utilisation abusive de la technologie de l'IA à des fins malveillantes.
« Par exemple, si un criminel tente de générer des images basées sur l'IA à l'aide de données empoisonnées, l'image de sortie sera déformée ou complètement différente de l'originale. En empoisonnant les données, nous les protégeons en réalité contre la génération de contenu malveillant. »
Le commandant Nelson a déclaré que l'outil de perturbation pourrait également aider les enquêteurs en réduisant le volume de faux documents à parcourir. « Un certain nombre d'algorithmes d'empoisonnement des données existent déjà, et comme nous le voyons dans d'autres domaines de la cybersécurité, de nouvelles méthodes permettant de les éviter apparaissent rapidement peu de temps après.
« Nous ne prévoyons pas qu'une seule méthode soit capable d'arrêter l'utilisation malveillante ou la recréation de données, cependant, ce que nous faisons est similaire à placer des ralentisseurs sur une piste de course d'accélération illégale. Nous construisons des obstacles pour rendre difficile l'utilisation abusive de ces technologies par les gens. »
L'objectif primordial du projet de recherche Silverer est de développer et de continuer à améliorer une technologie facile à utiliser pour les Australiens ordinaires qui souhaitent protéger leurs données sur les réseaux sociaux.
La version prototype de l'outil est actuellement en discussion pour être utilisée en interne à l'AFP.
