Les « robots tueurs » arrivent et l'ONU s'inquiète

Les « robots tueurs » arrivent et l’ONU s’inquiète

Longtemps relevant de la science-fiction, les systèmes d’armes autonomes, connus sous le nom de « robots tueurs », sont sur le point de devenir une réalité, grâce au développement rapide de l’intelligence artificielle.

En réponse, les organisations internationales ont intensifié leurs appels à des limites, voire à une interdiction pure et simple, de leur utilisation. L’Assemblée générale des Nations Unies a adopté en novembre la toute première résolution sur ces systèmes d’armes, capables de sélectionner et d’attaquer des cibles sans intervention humaine.

Pour faire la lumière sur les préoccupations juridiques et éthiques qu’ils soulèvent, la Gazette a interviewé Bonnie Docherty, professeur de droit à l’International Human Rights Clinic (IHRC) de la Harvard Law School, qui a assisté à certaines réunions de l’ONU. Docherty est également chercheur principal à la Division Armes de Human Rights Watch. Cette interview a été condensée et éditée pour plus de longueur et de clarté.

Que sont exactement les robots tueurs ? Dans quelle mesure sont-ils une réalité ?

Les robots tueurs, ou systèmes d’armes autonomes pour utiliser le terme plus technique, sont des systèmes qui choisissent une cible et tirent dessus en fonction des entrées des capteurs plutôt que des entrées humaines. Ils sont en développement depuis un certain temps mais deviennent rapidement une réalité. Ils nous inquiètent de plus en plus car des systèmes d’armes dotés d’une grande autonomie dans l’usage de la force sont déjà utilisés sur le champ de bataille.

Quels sont ces? Où ont-ils été utilisés ?

La frontière est un peu fine entre ce qui compte comme un robot tueur et ce qui ne l’est pas. Certains systèmes utilisés en Libye et d’autres en Libye [the ethnic and territorial conflict between Armenia and Azerbaijan over] Le Haut-Karabakh fait preuve d’une grande autonomie dans le sens où il peut opérer seul pour identifier une cible et attaquer.

On les appelle munitions errantes, et elles utilisent de plus en plus une autonomie qui leur permet de planer au-dessus du champ de bataille et d’attendre pour attaquer jusqu’à ce qu’elles détectent une cible. Le fait que ces systèmes soient considérés comme des robots tueurs dépend de facteurs spécifiques, tels que le degré de contrôle humain, mais ces armes montrent les dangers de l’autonomie dans la technologie militaire.

Quelles sont les préoccupations éthiques posées par les robots tueurs ?

Les préoccupations éthiques sont très sérieuses. Déléguer des décisions de vie ou de mort à des machines franchit une ligne rouge pour de nombreuses personnes. Cela déshumaniserait la violence et réduirait les humains à des valeurs numériques.

Il existe également un risque sérieux de biais algorithmique, où la discrimination à l’encontre de personnes fondée sur la race, le sexe, le handicap, etc. est possible parce que les machines peuvent être intentionnellement programmées pour rechercher certains critères ou peuvent involontairement devenir biaisées. Il existe de nombreuses preuves que l’intelligence artificielle peut devenir biaisée. Nous, dans la communauté des droits de l’homme, sommes très préoccupés par le fait que cela soit utilisé dans des machines conçues pour tuer.

Quelles sont les préoccupations juridiques ?

Il existe également de très graves problèmes juridiques, comme l’incapacité des machines à distinguer les soldats des civils. Ils auront particulièrement du mal à y parvenir dans un climat où les combattants se mêlent aux civils.

Même si la technologie peut résoudre ce problème, elle manque de jugement humain. C’est important pour ce qu’on appelle le test de proportionnalité, où l’on évalue si les dommages causés aux civils sont plus importants que l’avantage militaire.

Ce test nécessite qu’un humain prenne une décision éthique et juridique. C’est un jugement qui ne peut pas être programmé dans une machine car il existe un nombre infini de situations qui se produisent sur le champ de bataille. Et on ne peut pas programmer une machine pour qu’elle fasse face à un nombre infini de situations.

On s’inquiète également du manque de responsabilité.

Nous sommes très préoccupés par le fait que l’utilisation de systèmes d’armes autonomes se heurte à un manque de responsabilité, car, de toute évidence, vous ne pouvez pas tenir le système d’armes lui-même responsable.

Il serait également juridiquement difficile et sans doute injuste de tenir un opérateur responsable des actions d’un système fonctionnant de manière autonome.

Il est également difficile de tenir les fabricants d’armes responsables en vertu du droit de la responsabilité délictuelle. Les États, les armées et d’autres personnes s’inquiètent largement du fait que ces armes autonomes pourraient tomber à cause d’un manquement de responsabilité.

Nous pensons également que l’utilisation de ces systèmes d’armes saperait le droit pénal international existant en créant une lacune dans le cadre ; cela créerait quelque chose qui n’est pas couvert par le droit pénal actuel.

Des efforts ont été déployés pour interdire les robots tueurs, mais jusqu’à présent, ils n’ont pas abouti. Pourquoi donc?

Certains pays, notamment la Russie, s’opposent à toute action visant à répondre aux préoccupations soulevées par ces armes. Certains pays, comme les États-Unis, le Royaume-Uni, etc., ont soutenu des règles non contraignantes. Nous pensons qu’un traité contraignant est la seule réponse à des préoccupations aussi graves.

La plupart des pays qui ont demandé soit des règles non contraignantes, soit aucune action du tout sont ceux qui sont en train de développer la technologie et ne veulent clairement pas abandonner la possibilité de l’utiliser à l’avenir.

Il peut y avoir plusieurs raisons pour lesquelles il a été difficile d’interdire ces systèmes d’armes. Il s’agit de systèmes d’armes qui sont en développement à l’heure actuelle, contrairement aux mines terrestres et aux armes à sous-munitions qui existaient déjà depuis un certain temps lorsqu’elles ont été interdites. Nous pourrions démontrer les dommages causés par les mines terrestres et les armes à sous-munitions, et c’est un facteur qui incite les gens à agir, alors qu’il y a déjà des dommages.

Dans le cas des lasers aveuglants, il s’agissait d’une interdiction préventive [to ensure they will be used only on optical equipment, not on military personnel] c’est donc un bon parallèle pour les systèmes d’armes autonomes, bien que ces systèmes d’armes constituent une catégorie beaucoup plus large. Le climat politique est également différent à l’heure actuelle. Le climat politique mondial est beaucoup plus conservateur, ce qui rend le désarmement plus difficile.

Que pensez-vous de la position du gouvernement américain ?

Nous pensons qu’ils ne répondent pas à ce que devrait être une solution. Nous pensons que nous avons besoin de règles juridiquement contraignantes qui soient beaucoup plus strictes que ce que propose le gouvernement américain et qu’elles doivent inclure des interdictions de certains types de systèmes d’armes autonomes, et qu’elles doivent être des obligations et non de simples recommandations.

Il y a eu un développement récent au sein de l’ONU dans le cadre des efforts déployés depuis une décennie pour interdire ces systèmes d’armes.

Le Comité du désarmement, la Première Commission sur le désarmement et la sécurité internationale de l’Assemblée générale des Nations Unies, a adopté en novembre à une large majorité — 164 États pour et cinq États contre — une résolution appelant le secrétaire général de l’ONU à recueillir les opinions des États et des organisations civiles. société sur les systèmes d’armes autonomes.

Même si cela semble être un petit pas, il s’agit d’un pas en avant crucial. Cela déplace le centre de discussion vers l’Assemblée générale, par rapport à la Convention sur les armes classiques (CCW), où les progrès ont été très lents et ont été bloqués par la Russie et d’autres États. L’Assemblée générale des Nations Unies (AGNU) comprend davantage d’États et fonctionne par vote plutôt que par consensus.

De nombreux États, plus d’une centaine, ont déclaré qu’ils soutenaient un nouveau traité qui comprendrait des interdictions et des réglementations sur les systèmes d’armes autonomes. Ceci, combiné à l’utilisation accrue de ces systèmes dans le monde réel, a convergé pour stimuler l’action sur le front diplomatique.

Le secrétaire général a déclaré qu’il souhaiterait voir un nouveau traité d’ici 2026. Un traité issu de l’AGNU pourrait aborder un plus large éventail de sujets tels que les droits de l’homme, le droit, l’éthique, et ne pas se limiter au droit humanitaire. Nous espérons vivement que cela changera la donne dans les années à venir.

Qu’impliquerait une interdiction internationale des systèmes d’armes autonomes, et quelle est la probabilité que cela se produise bientôt ?

Nous réclamons un traité comportant trois parties. La première consiste à interdire les systèmes d’armes autonomes dépourvus de contrôle humain significatif. Nous demandons également l’interdiction des systèmes d’armes autonomes qui ciblent des personnes, car ils soulèvent des préoccupations en matière de discrimination et de défis éthiques. Le troisième volet est que nous demandons une réglementation sur tous les autres systèmes d’armes autonomes afin de garantir qu’ils ne peuvent être utilisés que dans une certaine portée géographique ou temporelle. Nous sommes optimistes que les États adopteront un tel traité dans les prochaines années.

Fourni par la Harvard Gazette