Utilisation de l’IA à des fins de guerre : il existe un vide réglementaire inacceptable
L'L’utilisation non réglementée de l’intelligence artificielle dans la guerre s’avère être une erreur fatale. L’IA, considérée à tort comme un instrument militaire de précision, devient un moyen de destruction aveugle, comme le démontrent les attaques israéliennes contre le Hamas et les « dommages collatéraux » sur les femmes et les enfants. L’utilisation de l’IA dans la guerre constitue une menace pour la sécurité internationale qui nécessite non seulement une intervention humaine, mais également des réglementations strictes. Cette question sera au centre des débats lors de la quatrième édition de la Privacy Week qui se tiendra à Milan du 27 au 31 mai.
Index des sujets :
Il existe un vide réglementaire sur l’utilisation de l’IA à des fins de guerre
La Privacy Week a publié un texte signé Leïla Belhadj Mohamedresponsable de la défense des intérêts du Privacy Network e Andrea Baldrati, co-fondateur de BSD Legal & Privacy Week qui pointe du doigt l’utilisation de l’IA dans les guerres. « L’Union européenne et les États-Unis laissent un vide réglementaire sur l’utilisation de l’intelligence artificielle à des fins de guerre. Dans ce vide, des tragédies sans précédent se produisenttant sur le front palestinien avec des victimes civiles que sur le front russo-ukrainien dans un conflit qui dure depuis plus de deux ans sans trouver de solution », écrivent-ils.
L’utilisation de l’IA dans la guerre est considérée comme une question éthique profonde, jusqu’ici ignorée par les gouvernements et qui nécessite une intervention urgente. Selon les auteurs, le risque lié à l'erreur systématique générée par le processus statistique sur lequel repose l'intelligence artificielle peut conduire à « la mort et la dévastation, portant atteinte au concept même de sécurité nationale et de démocratie ».
En bref, l’IA devient une arme mortelle en temps de guerre. Au cours de cette année, le phénomène a atteint des proportions alarmantes. Les nouvelles sur l’utilisation de cette technologie pour anéantir l’ennemi, tant sur le champ de bataille que dans les salles de contrôle où sont définies les stratégies, sont fréquentes et inquiétantes sur les fronts ukrainien et palestinien. « Cela met en lumière le côté obscur de l’IA, une technologie qui ne doit pas être diabolisée mais qui ne peut pas être laissée sans réglementation dans un contexte géopolitique délicat. »
L'utilisation de l'IA dans la bande de Gaza
Extrait d'une enquête du journal israélien indépendant +972 : Après l'attaque du Hamas du 7 octobre 2023, l'utilisation destructrice de l'IA par Israël s'est accrue.
En particulier, trois algorithmes – The Gospel, Lavender et son extension « Où est papa ? – sont utilisés par l’armée israélienne pour identifier et éliminer des cibles. « L'utilisation de l'intelligence artificielle dans ce contexte est épouvantable car elle a conduit à une augmentation exponentielle du nombre de victimes civiles ou « collatérales » », selon le jargon cynique de la guerre.
Si l’IA devient une usine à meurtres de masse : le cas de la guerre en Palestine
Quand la technologie indique que le milicien présumé est chez lui avec sa famille – cyniquement appelé « papa » – l'armée peut le frapper avec ce qu'on appelle « bombe stupide », des bombes inintelligentes et particulièrement destructrices. Cette stratégie a entraîné un nombre élevé de victimes civiles : sur les 34 000 personnes tuées jusqu'à présent, un tiers sont des femmes et des enfants.
Armes intelligentes pour Zelensky : avec quels effets
Si les logiciels d’IA utilisés par l’armée israélienne sont produits en interne, ceux qui aident le président ukrainien Volodymyr Zelensky à résister aux attaques russes sont tous fabriqués aux États-Unis. Les États-Unis ont fourni Clearview pour la reconnaissance faciale et l'anéantissement de 230 000 soldats russes, non seulement sur le territoire ukrainien, mais également dans le cadre d'autres opérations militaires..
IA et objectifs de guerre : le bug du manque d’examen humain
Pour les deux auteurs, tout cela se passe dans le silence assourdissant des gouvernements, ou plutôt avec leur complicité générale. « La réponse la plus immédiate est qu’il n’existe pas (encore) de véritable réglementation de l’IA. Lorsqu’il existe, comme dans le cas de l’AI ACT, cela ne s'applique pas aux contextes de guerre ». L'UE laisse la gestion de la sécurité nationale aux États membres pour des raisons politiques et ne réglemente donc pas les systèmes utilisés à des fins militaires et de défense. Nous devons équilibrer les risques de l’IA et exploiter son potentiel.
L'IA a des limites: peut présenter des informations erronées et trompeuses mais avec une apparence tout à fait plausible. Grâce à l’informatique quantique, l’IA est capable d’effectuer des calculs à très grande vitesse, simulant presque une pensée. Cependant, l'erreur est inhérente à ce processus statistique. Il existe des contextes – comme la guerre – dans lesquels des marges d’erreur relativement faibles ne sont pas acceptables. Il est donc nécessaire d’atténuer les risques pendant et après la formation, grâce à une surveillance constante. La combinaison de l’IA et du quantique bouscule la notion même de sécurité, tant interne qu’externe, et l’idée que l’on se fait de la démocratie. « Il s’agit d’une question éthique profonde qui ne peut pas être balayée sous le tapis comme la poussière, comme cela a été fait jusqu’à présent. Et qui doit être abordé avec la plus grande urgence et responsabilité », concluent les auteurs.