Apprendre à des robots à apprendre à d'autres robots

Une nouvelle recherche porte sur la prévision et le contrôle de l’activité de l’IA des mauvais acteurs au cours d’une année d’élections mondiales

Plus de 50 pays devraient organiser des élections nationales cette année et les analystes tirent depuis longtemps la sonnette d’alarme sur la menace de mauvais acteurs utilisant l’intelligence artificielle (IA) pour diffuser et amplifier la désinformation pendant la saison électorale à travers le monde.

Aujourd’hui, une nouvelle étude menée par des chercheurs de l’Université George Washington prédit que l’activité quotidienne des mauvais acteurs en matière d’IA augmentera d’ici la mi-2024, augmentant ainsi la menace qu’elle puisse affecter les résultats des élections. Cette recherche constitue la première analyse scientifique quantitative prédisant la manière dont les acteurs malveillants abuseront de l’IA à l’échelle mondiale.

L’article intitulé « Contrôler l’activité des mauvais acteurs-IA à grande échelle sur les champs de bataille en ligne » est publié dans la revue Nexus PNAS.

« Tout le monde parle des dangers de l’IA, mais jusqu’à notre étude, il n’existait aucune science sur cette menace », déclare Neil Johnson, auteur principal de l’étude et professeur de physique à GW. « Vous ne pouvez pas gagner une bataille sans une compréhension approfondie du champ de bataille. »

Les chercheurs affirment que l’étude répond à la question de savoir quoi, où et quand l’IA sera utilisée par de mauvais acteurs à l’échelle mondiale, et comment elle peut être contrôlée. Parmi leurs conclusions :

  • Les acteurs malveillants n’ont besoin que de systèmes d’IA de base de transformateur pré-entraîné génératif (GPT) pour manipuler et biaiser les informations sur les plates-formes, plutôt que de systèmes plus avancés tels que GPT 3 et 4, qui ont tendance à avoir davantage de garde-fous pour atténuer les mauvaises activités.
  • Un réseau routier couvrant 23 plateformes de médias sociaux, précédemment tracé dans les recherches antérieures de Johnson, permettra aux communautés de mauvais acteurs d’établir des liens directs avec des milliards d’utilisateurs dans le monde à l’insu de ces derniers.
  • L’activité des mauvais acteurs pilotée par l’IA deviendra quotidienne d’ici l’été 2024. Pour déterminer cela, les chercheurs ont utilisé des données proxy provenant de deux incidents historiques technologiquement similaires impliquant la manipulation de systèmes d’information électroniques en ligne. Le premier ensemble de données provenait d’attaques d’algorithmes automatisés sur les marchés financiers américains en 2008, et le second provenait de cyberattaques chinoises contre les infrastructures américaines en 2013. En analysant ces ensembles de données, les chercheurs ont pu extrapoler la fréquence des attaques dans ces chaînes. des événements et examiner ces informations dans le contexte des progrès technologiques actuels de l’IA.
  • Les sociétés de médias sociaux devraient déployer des tactiques pour contenir la désinformation, plutôt que de supprimer chaque élément de contenu. Selon les chercheurs, cela revient à supprimer les plus grandes poches d’activités coordonnées tout en s’accommodant des acteurs plus petits et isolés.