Les chercheurs promeuvent un avenir plus sûr grâce à l’IA en renforçant les algorithmes contre les attaques
La confiance est essentielle à l’acceptation généralisée de l’IA dans tous les secteurs, en particulier lorsque la sécurité est une préoccupation. Par exemple, les gens peuvent hésiter à conduire une voiture autonome sachant que l’IA qui la pilote peut être piratée. L’un des obstacles à l’augmentation de la confiance est que les algorithmes qui alimentent l’IA sont vulnérables à de telles attaques.
Le Dr Samson Zhou, professeur adjoint au département d'informatique et d'ingénierie de la Texas A&M University, et le Dr David P. Woodruff, professeur au département d'informatique de l'université Carnegie Mellon, espèrent renforcer les algorithmes utilisés par les modèles d'IA Big Data contre attaques. Les modèles d’IA Big Data sont des algorithmes évolutifs spécialement conçus pour gérer et analyser de grands volumes de données.
Zhou et Woodruff sont loin de créer des algorithmes totalement robustes contre les attaques, mais ils visent à progresser.
« C'est définitivement un objectif à long terme de fournir aux gens un algorithme assorti d'une garantie », a déclaré Woodruff. « Nous aimerions pouvoir dire : « Nous vous promettons que cet algorithme est robuste contre les adversaires », ce qui signifie que peu importe le nombre de requêtes que vous adressez à cet algorithme, il vous donnera toujours la bonne réponse », a déclaré Woodruff.
« Les gens ont peur de monter dans des voitures autonomes lorsqu'ils savent qu'un adversaire peut provoquer un accident », a déclaré Zhou. « Nous espérons que notre travail constituera une étape vers la confiance envers les algorithmes. »
Les recherches de Zhou et Woodruff se concentrent sur un type de modèle de Big Data appelé modèle de streaming. Avec un modèle de streaming, les informations et les insights doivent être glanés immédiatement à partir des données, sinon ils seront perdus car toutes les données ne peuvent pas être stockées. Des exemples courants de modèles de streaming sont les applications qui fournissent des informations en temps réel aux utilisateurs, comme une application de transport public qui affiche l'emplacement actuel des bus sur un itinéraire.
Défis liés à la création d’algorithmes sécurisés
L’un des défis auxquels les chercheurs sont confrontés lorsqu’ils tentent de créer un algorithme sécurisé est le caractère aléatoire. Considérez un algorithme comme un ensemble d’instructions pour l’IA. Le hasard est inclus dans ces instructions pour économiser de l'espace. Cependant, lorsque le caractère aléatoire est inclus, les ingénieurs d'un algorithme n'ont pas une image complète du fonctionnement interne de l'algorithme, ce qui laisse l'algorithme vulnérable aux attaques.
« Tout algorithme qui utilise le caractère aléatoire peut être attaqué car l'attaquant apprend en quelque sorte votre caractère aléatoire grâce à son interaction avec vous », a déclaré Woodruff. « Et si [the attacker] sait quelque chose sur votre caractère aléatoire, il peut trouver des éléments pour alimenter votre algorithme et le forcer à échouer.
Woodruff a comparé la manipulation des algorithmes à la manipulation des lancers de pièces. « Vous pourriez avoir une séquence de lancers de pièces dans votre algorithme, et cette séquence est vraiment bonne pour résoudre la plupart des problèmes. Mais si l'attaquant connaissait cette séquence de lancers de pièces, il pourrait trouver exactement la bonne entrée qui rend le résultat mauvais, « , a déclaré Woodruff.
Il existe également différents types d'attaques. Parfois, la seule chose que les attaquants savent d’un algorithme est la manière dont il répond aux requêtes. Dans ce cas, les attaquants basent leurs futures requêtes sur la sortie précédente de l'algorithme. C’est ce qu’on appelle une attaque boîte noire. Lorsque les attaquants connaissent l’état complet de l’algorithme, son fonctionnement interne et la manière dont il répond, il s’agit d’une attaque boîte blanche. Zhou et Woodruff veulent se défendre contre les deux.
« Les attaquants qui connaissent les paramètres internes d'un algorithme semblent être des adversaires beaucoup plus puissants », a déclaré Zhou. « Mais nous sommes en mesure de montrer qu'il y a encore des choses intéressantes qui peuvent être faites pour se défendre contre eux. »
La recherche future
En créant un algorithme robuste contre les attaques, Zhou et Woodruff prévoient de développer de nouvelles connexions entre les mathématiques et l'informatique théorique. Ils se tourneront également vers le domaine de la cryptographie (cryptage des données) pour trouver des idées. Grâce à leurs recherches, ils espèrent comprendre comment renforcer les algorithmes contre les attaques tout en maintenant leur efficacité. Ils veulent identifier les principes qui sous-tendent les vulnérabilités des algorithmes.
Zhou et Woodruff savent qu'il sera difficile de prouver qu'un algorithme est robuste contre une infinité de types d'attaques et qu'il donnera une réponse précise de manière fiable.
« Parfois, il n'est pas possible de concevoir des algorithmes garantissant la robustesse de l'adversaire », a déclaré Zhou. « Parfois, il n'y a aucun moyen de promouvoir la robustesse de l'adversaire si l'on ne dispose pas de suffisamment d'espace. Dans ce cas, nous devrions arrêter d'essayer de concevoir des algorithmes qui répondent à ces garanties et plutôt chercher d'autres moyens de contourner ces problèmes. »
Zhou et Woodruff espèrent à terme rédiger une monographie basée sur leur travail.