Il existe un pacte de non-prolifération d’armes nucléaires. En 2025, ce dont nous avons besoin est celui qui évite les robots meurtriers
En 1139, le pape Innocent II interdit l’utilisation de l’arbalète. Il l’a ensuite décrit comme «une arme détestable pour Dieu et indigne pour les chrétiens», bien qu’il ait considéré qu’il était valable de combattre les infidèles. La mesure n’a pas été prise en compte et l’arbalète a continué à être utilisé au cours des siècles suivants. L’histoire des armes a toujours été liée à ces interdictions, et maintenant il y a un particulièrement délicat: celui qui affecte les « robots meurtriers ».
Armes interdites. Cet exemple des arbalètes a fini par être l’un des nombreux qui ont entouré l’évolution des armes militaires et son application aux conflits de guerre. En 1970, le traité nucléaire de non-prolifération est entré en vigueur pour éviter l’utilisation d’armes nucléaires, mais le droit international interdit également l’utilisation de mines chimiques, biologiques ou antipersone. Ces accords ne sont généralement pas ratifiés par tous les pays du monde, mais par la grande majorité.
Méfiez-vous des armes autonomes. Comme indiqué dans Reuters, l’Organisation des Nations Unies a appelé une réunion pour réglementer le segment des armes autonomes contrôlées par l’intelligence artificielle. Ce type d’armement est de plus en plus utilisé dans les conflits de guerre moderne, et les experts préviennent: il est temps de mettre des limites à l’utilisation de cette technologie mortelle.
La guerre ukrainienne comme exemple. Ce qui est vécu en Ukraine War est un signe de la façon dont ce type d’armes autonomes est utilisée. Les drones et les robots sont utilisés notamment contre les troupes russes, et il y a déjà des drones en jetant des drones pour attaquer d’autres drones. La pertinence de ce type d’armement a été affectée même par la guerre commerciale entre les États-Unis et la Chine, ce qui met en danger la production et l’exportation de ces véhicules autonomes. Dans le New York Times, ils ont déjà mis en garde contre la montée de la redoutable « kamikaze » et leur utilisation dans ce conflit.
Dix ans à parler d’interdire des robots meurtriers. À Simseo, nous avons parlé du danger des armes avec l’IA et de la dérive vers les célèbres « robots meurtriers ». Le débat sur l’interdiction potentielle des robots meurtriers vient de loin, et des organisations telles que Human Rights Watch ont essayé de les interdire avant qu’il ne soit tard. Les propres chercheurs de l’IA ont déjà averti ce danger en 2017 et Brad Smith, président de Microsoft, a déclaré que ces robots meurtriers sont « imparables ». Cependant, de nombreux pays ont continué à les développer, et il n’y a pas de consensus lors de la fixation de limites dans cette zone dangereuse.
Date limite. Le secrétaire aux Nations des Nations Unies, Antonio Guterres, a établi que 2026 est la date limite pour tous les pays afin d’établir des règles claires dans l’utilisation des armes avec l’intelligence artificielle. Ses paroles sont claires: ces systèmes d’armement autonomes sont « politiquement inacceptables, moralement dégoûtants » et devraient être interdits. «
Il n’y a pas de consensus. Ce qui manque, c’est le consensus susmentionné: Alexander Kmentt, chef du contrôle de l’armement au ministère autrichien des Affaires étrangères, a expliqué: « Le temps est pressant pour arrêter les cauchemars que certains des experts les plus prestigieux avertissent », a-t-il déclaré. Certaines grandes personnalités du monde technologique telles qu’Elon Musk ou Demis Hassabis ont déjà averti en 2018 du problème et ont demandé à l’ONU d’interdire les armes autonomes.
L’armée résiste. Les efforts diplomatiques sont confrontés à des contrôles militaires qui, selon Reuters, résistent à la réglementation car cela pourrait brouiller les avantages posés par ces technologies sur le champ de bataille. Cette dernière réunion de la Convention sur les armes conventionnelles (CCW) est la dernière édition de certaines réunions qui ont eu lieu depuis 2014. Les participants sont nécessaires « un traité juridiquement contraignant » pour les pays de l’ONU.
Mais certains pays préfèrent aller à leur rythme. De nombreux pays soutiennent cet accord général, mais les États-Unis, la Russie, la Chine et l’Inde préfèrent avoir des réglementations nationales ou que les lois internationales existantes sont appliquées, selon Amnesty International. Un porte-parole du Pentagone américain a déclaré dans Reuters que « nous ne sommes pas convaincus que les lois existantes sont insuffisantes » et a souligné que les armes autonomes pourraient augmenter un risque plus faible de civils que les armes conventionnelles.
Et comme il n’y a pas de réglementation, il y a une prolifération. L’absence de ces limites provoque un développement clair de ce type d’armes autonomes. Les experts de Future of Life Institute ont surveillé le déploiement d’environ 200 systèmes d’armes autonomes en Ukraine, au Moyen-Orient et en Afrique. Les forces russes ont déployé environ 3 000 drones de vétérans Kamikaze en Ukraine, selon ces données, et comme nous l’avons indiqué à plusieurs reprises à Simseo, ce pays a dans ces drones l’un de ses éléments critiques pour attaquer les objectifs russes.
Dualité. Comme mon partenaire Javier Jiménez l’a dit sur un problème fantastique qu’il avait préparé en 2018, un autre problème avec ce débat est qu’il « est très difficile de déterminer quoi interdire et quoi pas dans un monde aussi fortement informatisé que la guerre ». La clé n’est pas tant dans la technologie et l’éthique, et ici nous sommes confrontés à une double technologie capable d’être utilisée à des fins civiles et militaires. Ici, la réflexion était claire: « Personne ne donnera un atout militaire stratégique pour un problème éthique », a-t-il déclaré. Il a ajouté comme conclusion que « au-delà de l’alarmisme, nous avons besoin d’outils » pour identifier, surveiller et contrôler le développement de ces armes parce que « ni les bonnes intentions ni les auto-témoins n’ont bien fonctionné dans le passé ».
Beaucoup d’argent en jeu. Mais comme toujours, l’un des facteurs de cette industrie est qu’il y a beaucoup d’argent en jeu, et plus quand il y a une fièvre renouvelée pour augmenter les budgets de défense. Laura Nolan, de l’organisation des activistes Stop Killer Robots, a clairement indiqué qu’il n’y avait aucune garantie que les entreprises technologiques seront responsables lors du développement de ces systèmes: « En général, nous ne faisons pas confiance que les industries sont auto-régulées … Il n’y a aucune raison pour que les entreprises de défense ou de technologie soient plus dignes de confiance. »
Dans Simseo | L’Ukraine a trouvé une solution au vétérinaire chinois
Dans Simseo | Ainsi, la guerre du futur voit l’enseignant qui défend les soldats des robots