Les pays appellent à l'action pour des règles sur l'utilisation de l'IA en temps de guerre

Les questions éthiques abondent à mesure que l’IA en temps de guerre se développe

L’arrivée de l’intelligence artificielle dans la guerre moderne suscite des inquiétudes quant aux risques d’escalade et au rôle de l’humain dans la prise de décision.

L’IA s’est révélée plus rapide mais pas nécessairement plus sûre ou plus éthique. Le secrétaire général de l'ONU, Antonio Guterres, s'est dit vendredi « profondément troublé » par les informations des médias israéliens selon lesquelles Israël aurait utilisé l'IA pour identifier des cibles à Gaza, causant de nombreuses victimes civiles.

Au-delà du logiciel « Lavender » en question et des démentis israéliens, voici un tour d'horizon des évolutions technologiques qui changent la face de la guerre.

Trois usages majeurs

Comme on l’a vu avec Lavender, l’IA peut être particulièrement utile pour sélectionner des cibles, grâce à ses algorithmes à grande vitesse traitant d’énormes quantités de données pour identifier les menaces potentielles.

Mais les résultats ne peuvent produire que des probabilités, les experts prévenant que les erreurs sont inévitables.

L’IA peut également opérer de manière tactique. Par exemple, des essaims de drones – une tactique que la Chine semble développer rapidement – ​​pourront à terme communiquer entre eux et interagir selon des objectifs préalablement assignés.

Au niveau stratégique, l’IA produira des modèles de champs de bataille et proposera des réponses aux attaques, voire même l’utilisation d’armes nucléaires.

Penser toujours plus vite

« Imaginez un conflit à grande échelle entre deux pays, et AI élaborant des stratégies et des plans militaires et répondant en temps réel à des situations réelles », a déclaré Alessandro Accorsi de l'International Crisis Group.

« Le temps de réaction est considérablement réduit. Ce qu'un humain peut faire en une heure, il peut le faire en quelques secondes », a-t-il déclaré.

Iron Dome, le système de défense anti-aérienne israélien, est capable de détecter l'arrivée d'un projectile, de déterminer de quoi il s'agit, sa destination et les dégâts potentiels.

« L'opérateur a une minute pour décider de détruire ou non la fusée », a déclaré Laure de Roucy-Rochegonde de l'Institut français des relations internationales.

« Il s'agit bien souvent d'une jeune recrue, âgée de vingt ans et peu au fait des lois de la guerre. On peut se demander à quel point son contrôle est important », dit-elle.

Un vide éthique inquiétant

Avec une course aux armements en cours et assombrie par l’opacité habituelle de la guerre, l’IA pourrait entrer sur le champ de bataille alors qu’une grande partie du monde n’est pas encore pleinement consciente des conséquences potentielles.

Les humains « prennent une décision qui est une recommandation faite par la machine, mais sans connaître les faits utilisés par la machine », a déclaré de Roucy-Rochegonde.

« Même si c'est bien un humain qui appuie sur le bouton, ce manque de connaissances, ainsi que la rapidité, font que son contrôle sur la décision est assez ténu. »

L'IA « est un trou noir. Nous ne comprenons pas nécessairement ce qu'elle sait ou pense, ni comment elle arrive à ces résultats », a déclaré Ulrike Franke, du Conseil européen des relations extérieures.

« Pourquoi l'IA suggère-t-elle telle ou telle cible ? Pourquoi me donne-t-elle telle intelligence ou telle autre ? Si on lui permet de contrôler une arme, c'est une vraie question éthique », a-t-elle déclaré.

L'Ukraine comme laboratoire

Les États-Unis ont par exemple utilisé des algorithmes lors de récentes frappes contre les rebelles Houthis au Yémen.

Mais « le véritable changement de donne se produit maintenant : l'Ukraine est devenue un laboratoire pour l'utilisation militaire de l'IA », a déclaré Accorsi.

Depuis que la Russie a envahi l'Ukraine en 2022, les protagonistes ont commencé à « développer et mettre en œuvre des solutions d'IA pour des tâches telles que le renseignement géospatial, les opérations avec des systèmes sans pilote, l'entraînement militaire et la cyberguerre », a déclaré Vitaliy Goncharuk du Defence AI Observatory (DAIO) de l'université Helmut Schmidt de Hambourg.

« En conséquence, la guerre en Ukraine est devenue le premier conflit dans lequel les deux parties sont en compétition dans et avec l'IA, qui est devenue un élément essentiel du succès », a déclaré Gontcharuk.

La surenchère et le danger nucléaire

Le « Terminator », un robot tueur sur lequel l'homme perd le contrôle, est un fantasme hollywoodien. Pourtant, les calculs froids de la machine font écho à un fait de l’IA moderne : ils n’intègrent ni instinct de survie ni doute.

Des chercheurs de quatre instituts et universités américains ont publié en janvier une étude de cinq grands modèles de langage (un système similaire au logiciel génératif ChatGPT) dans des situations de conflit.

L'étude suggère une tendance « à développer une dynamique de course aux armements, conduisant à des conflits plus vastes et, dans de rares cas, au déploiement d'armes nucléaires ».

Mais les grandes puissances mondiales veulent s’assurer de remporter la course à l’IA militaire, ce qui complique les efforts de réglementation de ce domaine.

Le président américain Joe Biden et le président chinois Xi Jinping ont convenu en novembre de faire travailler leurs experts sur le sujet.

Des discussions ont également commencé il y a 10 ans aux Nations Unies, mais sans résultats concrets.

« Il y a des débats sur ce qui doit être fait dans l'industrie civile de l'IA », a déclaré Accorsi. « Mais très peu lorsqu'il s'agit de l'industrie de défense. »