codice di guerra

« Code de guerre »: l'essai qui étudie l'éthique de l'IA en défense

Armes autonomes, algorithmes de surveillance, opérations cybernétiques invisibles aux yeux de l'opinion publique. C'est la nouvelle réalité de la guerre à l'ère de l'intelligence artificielle. Un conflit qui s'est souvent battu sans coups de feu, mais qui est tout aussi dangereux, omniprésent, déstabilisant. Les principales puissances mondiales – des États-Unis à la Chine, de la Russie à l'Union européenne – investissent énormément dans le développement des technologies à des fins militaires: les outils qui collectent et traitent d'énormes quantités de données, soutiennent le processus de prise de décision et, dans certains cas, sont en mesure d'agir de manière indépendante.

Dans ce scénario d'accélération technologique et de tensions géopolitiques croissantes, une question cruciale est imposée: est-il possible de s'appuyer sur l'intelligence artificielle sans sacrifier l'éthique, la responsabilité et les principes de l'humanité sur les démocraties libérales fondées?

Il part de cette urgence qu'il est né «Code de guerre. Éthique de l'intelligence artificielle en défense« , Le nouvel essai, publié par Raffaello Cortina Editore, par Mariarosaria Taddeo, professeur d'éthique numérique et de technologies de défense à l'Institut d'Oxford Internet de l'Université d'Oxford, et directeur du groupe de recherche sur l'éthique numérique et les technologies de défense.

Une éthique pour la guerre automatisée

Le livre propose une image éthique concrète et structurée pour faire face aux implications de l'utilisation de l'IA dans le domaine défensif, qui ne concerne pas seulement les guerres du futur, mais celles qui se battent déjà aujourd'hui. Taddeo fait la distinction entre trois grands domaines d'application de l'intelligence artificielle dans la défense:

  • Support aux fonctions stratégiques (telles que l'intelligence augmentée et la logistique prédictive);
  • Emploi dans les conflits non cinétiques (en particulier le cyberesponsable);
  • L'intégration dans les systèmes d'armes autonomes (qui soulèvent des questions sur la délégation de l'utilisation de la force létale aux entités non humaines).

Dans chacun de ces domaines, l'auteur identifie les questions critiques et les dilemmes éthiques et propose cinq principes directeurs – responsabilité, explicabilité, traçabilité, fiabilité, gouvernance – à adopter comme base pour une gouvernance responsable de l'IA militaire. Pour cela, il combine une méthodologie opérationnelle en trois phases pour passer de la réflexion théorique à la pratique concrète, en offrant des outils pour les législateurs, les entités militaires, les développeurs technologiques et les décideurs politiques.

Nous vous offrons la première partie de la préface du volume « Code de guerre » par Mariarosa Taddeo



PRÉFACE

Répondez que vous vous trompez. La guerre ne fait pas
Supprimer le respect. En effet, en guerre, c'est toujours
plus nécessaire qu'en temps de paix.
Khaled Hosseini, The Kite Hunter

Les fondements de nombreuses idées présentés dans ce livre ont été posées il y a plus de quinze ans, lorsque j'ai commencé un projet de recherche sur l'éthique de la guerre de l'information.
Le projet de livre, cependant, n'a émergé que plus récemment, influencé par mon implication dans des discussions avec diverses organisations de défense sur des thèmes éthiques relatifs à l'intelligence artificielle (IA). Au cours de ces collaborations, j'ai vu la nécessité d'un cadre de référence qui permettrait d'identifier et d'analyser et de traiter de manière systématique et cohérente les défis éthiques qui découlent des nombreuses utilisations actuelles (et émergentes) de l'IA dans le secteur de la défense et qui ont également fonctionné
Guidance pour leur gouvernance. Avec ce livre, j'essaie de satisfaire ce besoin.

Clausewitz a écrit: « La guerre est (…) un acte de force qui a pour le difficulté de forcer l'adversaire à se soumettre à notre volonté. La force est armée des inventions des arts et des sciences » (1832, p. 19). Je suis convaincu que ce sont des technologies dans la conduite d'une guerre. Ce ne sont pas des outils simples pour optimiser l'utilisation de la force; Ce sont également des facteurs perturbateurs dans notre conceptualisation de la guerre et ses implications éthiques et juridiques. Prenons, par exemple, la technologie nucléaire et les armes nucléaires. En tant qu'armes de destruction massive, ils ont annulé la distinction entre les combattants et les non-combattants, et ce faisant, ils ont renversé une idée de la guerre dans laquelle le principe de discrimination était fondamental et à ce moment-là, la théorie de la guerre droite avait été fondée. De même, l'utilisation de drones a contribué à une redéfinition de notre idée de la guerre en tant que « duel à grande échelle » (Ibidem), surmontant l'idée d'une confrontation symétrique dans laquelle les deux parties courent des risques similaires (Steinhoff, 2013; Braun, Brunsteter, 2013; Strawer, 2013; Schulzke, 2016). Pour cela, je suis d'accord avec Clark qui, « Lorsque nous appliquons l'éthique à la guerre, nous sommes obligés de viser une cible en mouvement constant »
(2015, p. 19).

L'adoption des technologies numériques, en particulier de l'IA, dans la défense, a à nouveau déplacé l'objectif de redéfinir notre compréhension des concepts pertinents (Floridi, 2014).
Nous considérons, par exemple, notre conception de la guerre comme des comportements coercitifs transmis par l'utilisation de la force.
Pendant des siècles, depuis l'époque de Cicéron (106-43 avant JC), nous avons réglementé la guerre en régulant l'utilisation de la force (Cicéron, 2008). Depuis 2014 (lorsque l'OTAN²² a déclaré un cyberesponsable, une zone de guerre), cette approche réglementaire ne fonctionne pas pour tous les cas de conflit, car la guerre cybernétique sépare la coercition de l'utilisation de la force. Malheureusement, la guerre cinétique se bat toujours, mais au cours des dernières décennies, la guerre cybernétique s'est propagée, et des problèmes urgents ont survenu sur la façon de le réguler. Par exemple, les règles ou mesures sont urgentes pour limiter les risques d'escalade des conflits cybernétiques et les règles pour limiter les violations des droits individuels et les menaces aux infrastructures civiles.

La redéfinition du concept de guerre se poursuit avec l'adoption de l'IA en défense. Pensons à la célèbre trinité de Clausewitz, qui décrit la guerre comme composée de « Violence originale »; de «Jame de la probabilité et du hasard, qui les impriment
Le caractère d'une activité libre de l'âme « 
; de « Sa nature subordonnée d'un instrument politique, qui le ramène à une raison pure et simple » (1832, p. 40, mon italique).

L'utilisation de l'IA a un impact sur l'élément violent de la Trinité, car il peut éliminer la violence (force) de la guerre, par exemple en améliorant l'efficacité des opérations cybernétiques non cinétiques et en rendant les cinétiques moins nécessaires.
Dans le même temps, l'IA peut changer la façon dont la violence est exercée, éliminant les agents humains du processus d'application de la force, si / quand des systèmes d'armes autonomes sont utilisés. IA peut soutenir le raisonnement humain en améliorant
Conscience de la situation (la conscience de la situation du contexte) et le soutien du processus de prise de décision. Ce faisant, il peut dés-dés-dés-dés-dés-désirter « Activité gratuite » À laquelle Clausewitz se réfère, si les agents humains acceptent sans critique les recommandations d'un système IA.

Dans ce livre, je considère l'utilisation de l'IA en défense comme le cas le plus récent et significatif de la numérisation de la défense. L'IA redéfinit non seulement la manière dont les guerres sont menées, mais aussi le fonctionnement des organisations de la
Défense, processus de décision et opérationnels, tels que les moyens d'acquérir des données et des informations et tactiques et des stratégies de guerre.
Ici, je considère tout le spectre des changements, de leurs implications conceptuelles et éthiques. Pour cette raison, le livre est sur l'éthique de l'IA en défense, et non sur l'éthique de l'IA dans la guerre.

Je ne me prononce pas sur la question de savoir si l'utilisation des technologies numériques et de l'IA en défense devraient être considérées comme une révolution dans les affaires militaires – limité à des aspects principalement opérationnels – ou comme l'étincelle d'une révolution
militaire. C'est l'idée que les changements dans les affaires militaires, les stratégies, les tactiques et la conduite de la guerre causés par l'adoption des technologies numériques entraîneront un changement d'équilibre des forces et de la manière hachée que les conflits sont résolus. Mon attention porte plutôt sur les implications conceptuelles et éthiques de cette numérisation à la façon de gérer les risques et les opportunités éthiques qui en tirent; Peu importe si la numérisation de la défense revient
dans une catégorie, dans l'autre ou dans aucune.

La validité de ce livre au fil du temps dépendra de sa capacité à approfondir les aspects conceptuels et réglementaires d'un phénomène contemporain, c'est-à-dire la révolution numérique, et d'identifier ses branches dans un avenir prévisible, tout en évitant de s'inquiéter de la chronique d'événements spécifiques. Pour cette raison, l'analyse se concentre sur les aspects conceptuels et éthiques de la transformation numérique
de la défense et de l'utilisation de l'IA dans ce domaine et évitez de recourir à des rapports descriptifs ou anecdotiques.

Mon objectif dans ce livre est de présenter un cadre de référence éthique pour identifier, analyser et systématiquement gérer les implications éthiques des différentes utilisations de l'IA dans le contexte de la défense, afin d'aider et de contribuer à guider sa gouvernance. Pour y parvenir, je me paie sur l'autonomie et la capacité d'apprentissage de l'IA et du niveau de agence que ceux-ci déterminent, sur l'éthique de l'Ai e
sur la bonne théorie de la guerre.

Une contribution fondamentale de ce livre est la traduction de l'analyse conceptuelle et réglementaire en recommandations pour la gouvernance de l'IA en défense. En ce sens, le livre reflète l'idée que l'éthique de l'AIA fonctionne au mieux comme éthique Translation,
qui est capable de « Traduire » Analyse conceptuelle dans les directives pour ceux qui doivent réguler la conception, le développement et l'utilisation des technologies numériques (Taddeo, Floridi, 2018b, p. 752). L'approche Translation nécessite une analyse aussi claire que possible,
De plus, une traduction sombre du conceptuel au pragmatique aurait peu de valeur. Pour cela, j'ai fait tout son possible pour préserver la simplicité à la fois dans le langage et dans l'analyse. Néanmoins, je dois admettre qu'il ne s'agit pas d'un texte d'introduction.


Éditeur: Raffaello Cortina Editore

Pages: 320

Collier: science et idées

Prix: 25,00 euros