Les modèles d’IA «empoisonnés» peuvent libérer le chaos du monde réel; L’étude montre comment ces attaques pourraient être empêchées
Un appétit incessant et vorace pour de plus en plus de données peut être une faille mortelle de l’intelligence artificielle; Ou du moins le moyen le plus rapide pour que « poison » s’infiltre.
Les cyberattaquants faufilent de petites doses de «données empoisonnées», sous la forme d’informations fausses ou trompeuses, dans des ensembles de formation d’IA très importants. La mission: sabotage des modèles autrefois fiables pour les fausser dans une direction complètement différente.
La majorité des systèmes d’IA que nous rencontrons aujourd’hui – de Chatgpt aux recommandations personnalisées de Netflix – ne sont qu’à « intelligents » pour réaliser des exploits aussi impressionnants en raison des grandes quantités de texte, d’imagerie, de discours et d’autres données sur lesquelles elles sont formées. Si ce trésor riche devient entaché, le comportement du modèle peut devenir erratique.
Les ramifications du monde réel vont bien au-delà d’un chatbot parlant de charabia ou de générateurs de texte à l’image produisant une image d’un avion lorsqu’on lui a demandé un oiseau. Des groupes de mauvais acteurs pourraient potentiellement provoquer une voiture autonome à ignorer les feux d’arrêt rouge, ou à une échelle beaucoup plus grande, déclenchent des perturbations et des pannes de réseau électrique.
Pour se défendre contre la menace de diverses attaques d’intoxication aux données, une équipe de chercheurs en cybersécurité de la FIU a combiné deux technologies émergentes – l’apprentissage fédéré et la blockchain – pour former plus en toute sécurité l’IA. Selon une étude apparaissant dans Accès IEEEl’approche innovante de l’équipe a détecté et supprimé des données malhonnêtes avant de pouvoir compromettre les ensembles de données de formation.
« Nous avons construit une méthode qui peut avoir de nombreuses applications pour la résilience des infrastructures critiques, la cybersécurité des transports, les soins de santé et plus encore », a déclaré Hadi Amini, chercheur principal et professeur adjoint de la CRF à la Knight Foundation School of Computing and Information Sciences.
La première partie de la nouvelle approche de l’équipe implique l’apprentissage fédéré. Cette façon unique de formation AI utilise une mini version d’un modèle de formation qui apprend directement sur votre appareil et ne partage uniquement les mises à jour (pas vos données personnelles) avec le modèle global sur le serveur d’une entreprise. Bien que préservant la confidentialité, cette technique reste vulnérable aux attaques d’empoisonnement des données.
« Vérifier si les données d’un utilisateur sont honnêtes ou malhonnêtes avant qu’elle n’atteigne le modèle est un défi pour l’apprentissage fédéré », explique Ervin Moore, un doctorat. candidat au laboratoire d’Amini et auteur principal de l’étude. « Donc, nous avons commencé à penser à la blockchain pour atténuer ce défaut. »
Pupupledissed pour son rôle dans la crypto-monnaie, comme le bitcoin, la blockchain est une base de données partagée qui est distribuée sur un réseau d’ordinateurs. Les données sont stockées – vous l’avez deviné – les blocs sont liés chronologiquement sur une chaîne. Chacun a sa propre empreinte digitale, ainsi que l’empreinte digitale du bloc précédent, ce qui la rend pratiquement infiltrée.
La chaîne entière adhère à une certaine structure (comment les données sont emballées ou superposées dans les blocs). C’est comme un processus de vérification pour s’assurer que les blocs aléatoires ne sont pas ajoutés. Pensez-y comme une liste de contrôle pour l’admission.
Les chercheurs ont utilisé cela à leur avantage lors de la construction de leur modèle. Il a comparé les mises à jour des blocs, en calculant si les mises à jour aberrantes étaient potentiellement toxiques. Des mises à jour potentiellement toxiques ont été enregistrées puis rejetées à partir de l’agrégation du réseau.
« Notre équipe travaille maintenant en étroite collaboration avec des collaborateurs du National Center for Transportation Cybersecurity and Resilience pour tirer parti du chiffrement quantique de pointe pour la protection des données et des systèmes », a déclaré Amini, qui dirige également l’équipe de la cybersécurité de la CRF et des experts en IA enquêtant sur une IA sécurisée pour les systèmes de transport connectés et autonomes. « Notre objectif est d’assurer la sécurité et la sécurité des infrastructures de transport américaines tout en exploitant la puissance de l’IA avancée pour améliorer les systèmes de transport. »
Moore poursuivra cette recherche dans le cadre de ses recherches en cours sur le développement d’algorithmes d’IA sécurisés qui peuvent être utilisés pour la sécurité des infrastructures critiques.