La guerre en Ukraine accélère la poussée mondiale vers les robots tueurs

La guerre en Ukraine accélère la poussée mondiale vers les robots tueurs

L’armée américaine intensifie son engagement dans le développement et l’utilisation d’armes autonomes, comme le confirme une mise à jour d’un Directive du ministère de la Défense. La mise à jour, publiée le 25 janvier 2023, est la première en une décennie à se concentrer sur les armes autonomes à intelligence artificielle. Il s’ensuit une relation plan de mise en œuvre publié par l’OTAN le 13 octobre 2022, qui vise à préserver « l’avantage technologique » de l’alliance dans ce que l’on appelle parfois les « robots tueurs ».

Ces deux annonces reflètent une leçon cruciale que les militaires du monde entier ont tirée des récentes opérations de combat en Ukraine et Haut-Karabakh: L’intelligence artificielle armée est l’avenir de la guerre.

« Nous savons que les commandants voient une valeur militaire dans les munitions qui traînent en Ukraine », a déclaré Richard Moyes, directeur de Article 36, une organisation humanitaire axée sur la réduction des dommages causés par les armes, m’a dit dans une interview. Ces armes, qui sont un croisement entre une bombe et un drone, peuvent planer pendant de longues périodes en attendant une cible. Pour l’instant, ces missiles semi-autonomes sont généralement exploités avec un contrôle humain important sur les décisions clés, a-t-il déclaré.

La pression de la guerre

Mais à mesure que les pertes augmentent en Ukraine, la pression pour obtenir des avantages décisifs sur le champ de bataille avec des armes entièrement autonomes augmente : des robots qui peuvent choisir, traquer et attaquer leurs cibles tout seuls, sans avoir besoin d’aucune supervision humaine.

Ce mois-ci, un important fabricant russe plans annoncés développer une nouvelle version de combat de son robot de reconnaissance Marker, un véhicule terrestre sans équipage, pour augmenter les forces existantes en Ukraine. Des drones entièrement autonomes sont déjà utilisés pour défendre les installations énergétiques ukrainiennes d’autres drones. Wahid Nawabi, PDG de l’entrepreneur de défense américain qui fabrique le semi-autonome Drone à cran d’arrêta déclaré que la technologie est déjà à portée de main convertir ces armes pour qu’elles deviennent totalement autonomes.

Mykhailo Fedorov, le ministre ukrainien de la transformation numérique, a soutenu que les armes entièrement autonomes sont la « prochaine étape logique et inévitable » et a récemment déclaré que les soldats pourraient les voir sur le champ de bataille dans les six prochains mois.

Les partisans de systèmes d’armes entièrement autonomes soutiennent que la technologie gardera les soldats hors de danger en les gardant hors du champ de bataille. Ils permettront également de prendre des décisions militaires à une vitesse surhumaine, permettant des capacités défensives radicalement améliorées.

Actuellement, les armes semi-autonomes, comme les munitions qui traînent qui se suivent et explosent sur des cibles, nécessitent un « humain dans la boucle ». Ils peuvent recommander des actions mais exigent de leurs opérateurs qu’ils les initient.

En revanche, les drones entièrement autonomes, comme les soi-disant « chasseurs de drones » maintenant déployé en Ukrainepeut suivre et désactiver les véhicules aériens sans pilote entrants jour et nuit, sans intervention de l’opérateur et plus rapidement que les systèmes d’armes contrôlés par l’homme.

Cette image composite montre un drone de munition rôdant « Switchblade » lancé à partir d’un tube et étendant ses ailes repliées. Crédit: Affaires publiques AMRDEC de l’armée américaine

Demander un délai d’attente

Des critiques comme La campagne pour arrêter les robots tueurs prônent depuis plus d’une décennie l’interdiction de la recherche et du développement de systèmes d’armes autonomes. Ils pointent vers un avenir où les systèmes d’armes autonomes sont conçus spécifiquement pour cibler les humains, pas seulement les véhicules, les infrastructures et d’autres armes. Ils soutiennent que les décisions de vie et de mort en temps de guerre doivent rester entre des mains humaines. Les confier à un algorithme revient à la forme ultime de déshumanisation numérique.

Ensemble avec Human Rights Watch, La campagne pour arrêter les robots tueurs soutient que les systèmes d’armes autonomes manquent du jugement humain nécessaire pour faire la distinction entre les civils et les cibles militaires légitimes. Ils abaissent également le seuil de la guerre en réduisant les risques perçus et ils érodent le contrôle humain significatif sur ce qui se passe sur le champ de bataille.

Les organisations soutiennent que les militaires investir le plus dans les systèmes d’armes autonomes, dont les États-Unis, la Russie, la Chine, la Corée du Sud et l’Union européenne, lancent le monde dans une nouvelle course aux armements coûteuse et déstabilisante. Une conséquence pourrait être que cette dangereuse nouvelle technologie tomberait dans le mains de terroristes et d’autres en dehors du contrôle du gouvernement.

La directive mise à jour du ministère de la Défense tente de répondre à certaines des principales préoccupations. Il déclare que les États-Unis utiliseront des systèmes d’armes autonomes avec « niveaux appropriés de jugement humain sur l’utilisation de la force. » Human Rights Watch a publié une déclaration disant que la nouvelle directive ne précise pas ce que signifie l’expression « niveau approprié » et n’établit pas de lignes directrices pour qui devrait le déterminer.

Mais comme Gregory Allen, un expert du groupe de réflexion sur la défense nationale et les relations internationales Centre d’études stratégiques et internationalessoutient, cette langue établit un seuil inférieur que le « contrôle humain significatif » exigé par les critiques. La formulation du ministère de la Défense, souligne-t-il, permet la possibilité que dans certains cas, comme avec les avions de surveillance, le niveau de contrôle humain considéré comme approprié « peut être faible ou nul ».

La directive mise à jour comprend également un langage promettant une utilisation éthique des systèmes d’armes autonomes, en particulier en établissant un système de surveillance pour le développement et l’utilisation de la technologie, et en insistant sur le fait que les armes seront utilisées conformément aux lois internationales de la guerre en vigueur. Mais Moyes de l’article 36 a noté que le droit international ne fournit actuellement pas un cadre adéquat pour comprendre, et encore moins réglementer, le concept d’autonomie des armes.

Le cadre juridique actuel ne précise pas, par exemple, que les commandants sont chargés de comprendre ce qui déclenchera les systèmes qu’ils utilisent, ou qu’ils doivent limiter la zone et le temps pendant lesquels ces systèmes fonctionneront. « Le danger est qu’il n’y a pas de ligne claire entre où nous en sommes maintenant et où nous avons accepté l’inacceptable », a déclaré Moyes.

Équilibre impossible ?

La mise à jour du Pentagone démontre un engagement simultané à déployer des systèmes d’armes autonomes et à se conformer au droit international humanitaire. Comment les États-Unis équilibreront ces engagements, et si un tel équilibre est même possible, reste à voir.

Le Comité international de la Croix-Rouge, gardien du droit international humanitaire, insiste sur le fait que les obligations légales des commandants et des opérateurs »ne peut pas être transféré à une machine, un algorithme ou un système d’arme. » À l’heure actuelle, les êtres humains sont tenus responsables de la protection des civils et de la limitation des dommages de combat en s’assurant que l’utilisation de la force est proportionnelle aux objectifs militaires.

Si et quand des armes artificiellement intelligentes sont déployées sur le champ de bataille, qui devrait être tenu responsable en cas de décès inutiles de civils ? Il n’y a pas de réponse claire à cette question très importante.

Fourni par La Conversation