Les puissances mondiales se demandent comment utiliser l'intelligence artificielle militaire de manière « responsable ». À quoi cela ressemblerait-il ?

Les puissances mondiales se demandent comment utiliser l'intelligence artificielle militaire de manière « responsable ». À quoi cela ressemblerait-il ?

La semaine dernière, quelque 2 000 responsables gouvernementaux et experts du monde entier se sont réunis à Séoul, en Corée du Sud, pour le sommet REAIM (Responsible Artificial Intelligence in the Military Domain). Il s’agissait du deuxième événement de ce type, le premier ayant eu lieu aux Pays-Bas en février 2023.

Lors du sommet de cette année, 61 pays ont approuvé un « Plan d’action » pour régir le développement et l’utilisation de l’intelligence artificielle (IA) par l’armée.

Cependant, 30 pays ont envoyé un représentant gouvernemental au sommet mais n'ont pas approuvé le projet, y compris la Chine.

Ce projet constitue une avancée importante, quoique modeste. Il reste toutefois à comprendre ce qui constitue une utilisation responsable de l’IA et comment cela se traduit en actions concrètes dans le domaine militaire.

Comment l’IA est-elle actuellement utilisée dans les contextes militaires ?

L’utilisation militaire de l’IA a augmenté au cours des dernières années, notamment dans les conflits Russie-Ukraine et Israël-Palestine.

Israël a utilisé des systèmes d'intelligence artificielle appelés « Gospel » et « Lavender » pour l'aider à prendre des décisions militaires clés, comme le choix des lieux et des personnes à bombarder. Ces systèmes utilisent de grandes quantités de données, notamment les adresses des personnes, leurs numéros de téléphone et leur appartenance à des groupes de discussion.

Le système « Lavande » a notamment fait les gros titres cette année, lorsque des critiques ont mis en doute son efficacité et sa légalité. Les données d'entraînement et la manière dont il classait les cibles suscitaient des inquiétudes.

La Russie et l’Ukraine ont également recours à l’IA pour appuyer leurs décisions militaires. Les images satellite, les contenus des réseaux sociaux et la surveillance par drone ne sont que quelques-unes des nombreuses sources d’information qui génèrent d’importants volumes de données.

L'IA peut analyser ces données beaucoup plus rapidement que les humains. Les résultats sont intégrés aux « chaînes de destruction » existantes, c'est-à-dire au processus de localisation, de suivi, de ciblage et d'engagement des cibles.

Cela signifie que les responsables militaires peuvent prendre des décisions plus rapidement lors d'un conflit armé actif, ce qui leur procure des avantages tactiques. Cependant, l'utilisation abusive des systèmes d'IA peut également entraîner des dommages potentiels.

La société civile et les organisations non gouvernementales, comme le Comité international de la Croix-Rouge, ont mis en garde contre les risques. Par exemple, les biais algorithmiques peuvent aggraver les risques pour les civils en temps de guerre.

Qu’est-ce que l’IA responsable dans le domaine militaire ?

Il n’existe pas de consensus sur ce qui constitue une IA « responsable ».

Certains chercheurs soutiennent que la technologie elle-même peut être responsable. Dans ce cas, « responsable » signifierait avoir une équité intégrée et une absence de parti pris.

D’autres études font référence aux pratiques responsables liées à l’IA, comme la conception, le développement et l’utilisation. Il s’agirait de pratiques légales, traçables, fiables et axées sur la réduction des biais.

Le projet adopté lors du récent sommet de Séoul s’inscrit dans cette seconde interprétation. Il stipule que toute personne utilisant l’IA dans l’armée doit se conformer aux lois nationales et internationales en vigueur.

Elle souligne également l’importance du rôle de l’homme dans le développement, le déploiement et l’utilisation de l’IA dans le domaine militaire. Il s’agit notamment de veiller à ce que le jugement et le contrôle humains sur l’usage de la force soient gérés de manière responsable et sûre.

Il s’agit d’une distinction importante, car de nombreux récits autour de l’IA impliquent à tort une absence d’implication et de responsabilité humaines.

Que peuvent faire les gouvernements pour utiliser l’IA militaire de manière responsable ?

Les discussions lors du sommet ont principalement porté sur les mesures concrètes que les gouvernements peuvent prendre pour soutenir une utilisation responsable de l’IA militaire.

L’utilisation de l’intelligence artificielle à des fins militaires étant en plein essor, des mesures provisoires sont nécessaires pour y faire face. L’une des suggestions consiste à conclure des accords de régulation de l’intelligence artificielle au sein de différentes régions, plutôt que de prendre plus de temps pour parvenir à un consensus mondial et universel.

Pour améliorer la coopération mondiale en matière d’IA militaire, nous pourrions également tirer les leçons des défis mondiaux précédents, tels que la non-prolifération nucléaire, la préservation de la couche d’ozone et le maintien de la démilitarisation de l’espace extra-atmosphérique et de l’Antarctique.

Dix-huit mois après le sommet inaugural de l’année dernière, les gouvernements et autres parties responsables ont commencé à mettre en place des processus et des boîtes à outils d’atténuation des risques pour l’IA militaire.

Le plan directeur reflète les progrès réalisés depuis lors et les idées discutées lors du sommet. Il propose un certain nombre de mesures concrètes, parmi lesquelles :

  • examens juridiques universels des capacités militaires basées sur l'IA
  • promouvoir le dialogue sur l’élaboration de mesures visant à garantir une IA responsable dans le domaine militaire aux niveaux national, régional et international
  • maintenir une implication humaine appropriée dans le développement, le déploiement et l’utilisation de l’IA dans le domaine militaire.

Cependant, les progrès sont lents car nous n’avons pas encore une compréhension universelle de ce à quoi ressemble réellement une IA militaire responsable.

La nécessité de résoudre ces problèmes met désormais la pression sur le prochain sommet (pas encore annoncé). Les Pays-Bas ont également mis en place un groupe d'experts pour promouvoir une approche cohérente à l'échelle mondiale de l'IA militaire.

L’humanité peut tirer profit des outils d’intelligence artificielle. Mais il est urgent de veiller à ce que les risques qu’ils représentent ne se multiplient pas, en particulier dans le domaine militaire.