L’IA est déjà en train de fusionner avec la robotique – l’un des résultats pourrait être de nouvelles armes puissantes

L’IA est déjà en train de fusionner avec la robotique – l’un des résultats pourrait être de nouvelles armes puissantes

L’intérêt pour l’intégration de robots dans les opérations de sécurité, de police et militaires n’a cessé de croître au cours des dernières années. C’est une avenue déjà explorée en Amérique du Nord et en Europe.

L’intégration des robots dans ces domaines pourrait être considérée comme analogue à l’inclusion des chiens dans les rôles policiers et militaires au XXe siècle. Les chiens ont servi, entre autres, de gardes, de sentinelles, de porteurs de messages et de détecteurs de mines.

Les robots utilitaires, conçus pour jouer un rôle de soutien aux humains, imitent nos compagnons à quatre pattes non seulement dans leur forme, mais aussi dans leur fonction. Equipés d’une technologie de surveillance et capables de transporter du matériel, des munitions et bien plus encore dans le cadre des chaînes de réapprovisionnement, ils pourraient minimiser considérablement le risque de préjudice pour les soldats humains sur le champ de bataille.

Mais les robots utilitaires prendraient sans doute une autre dimension si on leur ajoutait des systèmes d’armes. Essentiellement, ils deviendraient des variantes terrestres du drone MQ-9 Predator actuellement utilisé par l’armée américaine.

En 2021, la société Ghost Robotics a présenté l’un de ses robots à quatre pattes, appelé Q-UGV, qui était armé d’un fusil sans pilote à usage spécial 4. L’événement de démonstration s’est penché sur l’armement des robots utilitaires.

Il est important de noter comment chaque aspect de cette fusion d’armes et de robotique fonctionne de manière différente. Bien que le robot lui-même soit semi-autonome et puisse être contrôlé à distance, l’arme montée n’a aucune capacité autonome et est entièrement contrôlée par un opérateur.

En septembre 2023, les Marines américains ont mené un test de validation de principe impliquant un autre robot utilitaire à quatre pattes. Ils ont mesuré ses capacités à « acquérir et poursuivre des cibles avec une arme antichar légère M72 ».

Le test a relancé le débat éthique sur l’utilisation de systèmes d’armes automatisés et semi-automatisés dans la guerre. Ce ne serait pas un grand pas pour l’une ou l’autre de ces plates-formes d’intégrer une détection des menaces basée sur l’IA et la capacité de « se verrouiller » sur des cibles. En fait, des systèmes de visée de cette nature sont déjà disponibles sur le marché libre.

En 2022, une douzaine de grandes entreprises de robotique ont signé une lettre ouverte hébergée sur le site Web de Boston Dynamics, qui a créé un robot utilitaire ressemblant à un chien appelé Spot. Dans la lettre, les entreprises se sont prononcées contre la militarisation des robots disponibles dans le commerce.

Cependant, la lettre indique également que les entreprises ne contestent pas « les technologies existantes que les nations et leurs agences gouvernementales utilisent pour se défendre et faire respecter leurs lois ». Sur ce point, il convient de se demander si le cheval s’est déjà enfui en ce qui concerne la militarisation de l’IA. Des systèmes d’armes dotés d’une technologie intelligente intégrée à la robotique sont déjà utilisés au combat.

Ce mois-ci, Boston Dynamics a publié une vidéo montrant comment la société avait ajouté le chatbot IA ChatGPT à son robot Spot. On peut voir la machine répondre aux questions et aux conversations de l’un des ingénieurs de l’entreprise en utilisant plusieurs « personnalités » différentes, comme un majordome anglais. Les réponses proviennent du chatbot IA, mais Spot prononce les mots.

Il s’agit d’une étape fascinante pour l’industrie et potentiellement positive. Mais même si Boston Dynamics maintient son engagement de ne pas militariser ses robots, d’autres entreprises ne ressentent peut-être pas la même chose. Il existe également un risque d’utilisation abusive de ces robots par des personnes ou des institutions dépourvues de sens moral. Comme le laisse entendre la lettre ouverte : « Dans la mesure du possible, nous examinerons attentivement les applications prévues par nos clients afin d’éviter une éventuelle militarisation. »

Position du Royaume-Uni

Le Royaume-Uni a déjà pris position sur l’armement de l’IA dans sa stratégie d’intelligence artificielle de défense, publiée en 2022. Le document exprime l’intention d’intégrer rapidement l’intelligence artificielle dans les systèmes du ministère de la Défense afin de renforcer la sécurité et de moderniser les forces armées.

Il convient toutefois de noter qu’une annexe au document stratégique reconnaît spécifiquement les défis potentiels associés aux systèmes d’armes létaux autonomes.

Par exemple, les données du monde réel sont utilisées pour « entraîner » les systèmes d’IA ou pour les améliorer. Avec ChatGPT, ces informations sont collectées sur Internet. Même si elles aident les systèmes d’IA à devenir plus utiles, toutes ces informations du « monde réel » peuvent également transmettre des hypothèses erronées et des préjugés au système lui-même. Cela peut conduire à des biais algorithmiques (dans lesquels l’IA favorise un groupe ou une option par rapport à un autre) ou à des réponses inappropriées et disproportionnées de la part de l’IA. En tant que tel, les échantillons de données de formation pour les systèmes d’armes doivent être soigneusement examinés dans une optique de guerre éthique.

Cette année, la Chambre des Lords a créé un comité restreint sur l’IA dans les systèmes d’armes. Sa mission est de voir comment les forces armées peuvent tirer parti des progrès technologiques, tout en minimisant les risques grâce à la mise en œuvre de garanties techniques, juridiques et éthiques. La suffisance de la politique britannique et de l’élaboration des politiques internationales est également examinée.

Les chiens robots ne pointent pas encore leurs armes sur les forces opposées. Mais tous les éléments sont réunis pour que ce scénario devienne une réalité, si rien n’est fait. Le rythme rapide du développement de l’IA et de la robotique crée une tempête parfaite qui pourrait conduire à de nouvelles armes puissantes.

Le récent sommet sur la sécurité de l’IA à Bletchley Park a eu des résultats positifs pour la réglementation de l’IA, tant au Royaume-Uni qu’à l’échelle internationale. Cependant, des signes de divergence philosophique sont apparus entre les objectifs du sommet et ceux du comité AI in Weapon Systems.

Le sommet visait à définir l’IA, à évaluer ses capacités et ses limites et à créer un consensus mondial concernant son utilisation éthique. Il a cherché à le faire via une déclaration, très semblable à la lettre ouverte de Boston Dynamics. Toutefois, ni l’un ni l’autre n’est contraignant. Le comité cherche à intégrer clairement et rapidement la technologie, mais dans le respect de l’éthique, de la réglementation et du droit international.

L’utilisation fréquente du terme « garde-corps » en relation avec le sommet et la déclaration de Bletchley suggère des engagements volontaires. Et le Premier ministre britannique Rishi Sunak a déclaré que les pays ne devraient pas se précipiter pour réglementer.

La noblesse de telles déclarations diminue au regard de l’enthousiasme manifesté par certains milieux pour l’intégration de cette technologie dans les plates-formes d’armes.