L’IA israélienne peut produire 100 cibles de bombardement par jour à Gaza. Est-ce l’avenir de la guerre ?
La semaine dernière, des rapports ont révélé que les Forces de défense israéliennes (FDI) utilisaient un système d’intelligence artificielle (IA) appelé Habsora (en hébreu pour « L’Évangile ») pour sélectionner des cibles dans la guerre contre le Hamas à Gaza. Le système aurait été utilisé pour trouver davantage de cibles de bombardements, pour relier les emplacements aux agents du Hamas et pour estimer à l’avance le nombre probable de morts civiles.
Qu’est-ce que cela signifie que des systèmes de ciblage par l’IA comme celui-ci soient utilisés dans un conflit ? Mes recherches sur les implications sociales, politiques et éthiques de l’utilisation militaire de systèmes distants et autonomes montrent que l’IA modifie déjà le caractère de la guerre.
Les militaires utilisent des systèmes distants et autonomes comme « multiplicateurs de force » pour accroître l’impact de leurs troupes et protéger la vie de leurs soldats. Les systèmes d’IA peuvent rendre les soldats plus efficaces et sont susceptibles d’améliorer la rapidité et la létalité des combats, même si les humains deviennent moins visibles sur le champ de bataille, collectant plutôt des renseignements et ciblant à distance.
Lorsque les militaires pourront tuer à volonté, avec peu de risques pour leurs propres soldats, la pensée éthique actuelle sur la guerre prévaudra-t-elle ? Ou bien l’utilisation croissante de l’IA va-t-elle également accroître la déshumanisation des adversaires et le fossé entre les guerres et les sociétés au nom desquelles elles sont menées ?
L’IA en guerre
L’IA a un impact à tous les niveaux de la guerre, depuis le soutien « au renseignement, à la surveillance et à la reconnaissance », comme le système Habsora de Tsahal, jusqu’aux « systèmes d’armes létaux autonomes » capables de choisir et d’attaquer des cibles sans intervention humaine.
Ces systèmes ont le potentiel de remodeler le caractère de la guerre, facilitant ainsi l’entrée dans un conflit. En tant que systèmes complexes et distribués, ils peuvent également rendre plus difficile la communication de ses intentions – ou l’interprétation de celles d’un adversaire – dans le contexte d’un conflit qui s’intensifie.
À cette fin, l’IA peut contribuer à la désinformation, créant et amplifiant de dangereux malentendus en temps de guerre.
Les systèmes d’IA peuvent accroître la tendance humaine à faire confiance aux suggestions des machines (ceci est mis en évidence par le système Habsora, nommé d’après la parole infaillible de Dieu), ouvrant ainsi une incertitude quant à la mesure dans laquelle il faut faire confiance aux systèmes autonomes. Les limites d’un système d’IA qui interagit avec d’autres technologies et avec des personnes peuvent ne pas être claires, et il n’y a peut-être aucun moyen de savoir qui ou quoi a « rédigé » ses résultats, aussi objectifs et rationnels qu’ils puissent paraître.
Apprentissage automatique à grande vitesse
L’un des changements les plus fondamentaux et les plus importants que nous verrons probablement grâce à l’IA est peut-être l’augmentation de la vitesse de la guerre. Cela pourrait changer notre façon de comprendre la dissuasion militaire, qui suppose que les humains sont les principaux acteurs et sources de renseignement et d’interaction en temps de guerre.
Les militaires et les soldats encadrent leur prise de décision à travers ce qu’on appelle la « boucle OODA » (pour observer, orienter, décider, agir). Une boucle OODA plus rapide peut vous aider à déjouer votre ennemi. L’objectif est d’éviter de ralentir les décisions par des délibérations excessives, mais plutôt de s’adapter au rythme accéléré de la guerre.
L’utilisation de l’IA est donc potentiellement justifiée dans la mesure où elle peut interpréter et synthétiser d’énormes quantités de données, les traiter et fournir des résultats à des rythmes qui dépassent de loin la cognition humaine.
Mais où est l’espace pour la délibération éthique dans un cycle de boucle OODA de plus en plus rapide et centré sur les données qui se déroule à une distance sûre de la bataille ?
Le logiciel de ciblage israélien est un exemple de cette accélération. Un ancien chef de Tsahal a déclaré que les analystes du renseignement humain pourraient produire 50 cibles de bombardement à Gaza chaque année, mais que le système Habsora peut produire 100 cibles par jour, ainsi que des recommandations en temps réel sur celles à attaquer.
Comment le système produit-il ces cibles ? Pour ce faire, il s’appuie sur un raisonnement probabiliste proposé par des algorithmes d’apprentissage automatique.
Les algorithmes d’apprentissage automatique apprennent grâce aux données. Ils apprennent en recherchant des modèles dans d’énormes piles de données, et leur succès dépend de la qualité et de la quantité des données. Ils font des recommandations basées sur des probabilités.
Les probabilités sont basées sur la correspondance de modèles. Si une personne présente suffisamment de similitudes avec d’autres personnes qualifiées de combattant ennemi, elle peut elle aussi être qualifiée de combattant.
Le problème du ciblage à distance grâce à l’IA
Certains prétendent que l’apprentissage automatique permet une plus grande précision dans le ciblage, ce qui permet d’éviter plus facilement de blesser des innocents et d’utiliser une force proportionnelle. Cependant, l’idée d’un ciblage plus précis des frappes aériennes n’a pas été couronnée de succès dans le passé, comme le montre le bilan élevé des victimes civiles, déclarées et non déclarées, de la guerre mondiale contre le terrorisme.
De plus, la différence entre un combattant et un civil va rarement de soi. Même les humains ne peuvent souvent pas dire qui est ou n’est pas un combattant.
La technologie ne change rien à cette vérité fondamentale. Souvent, les catégories et concepts sociaux ne sont pas objectifs mais sont contestés ou spécifiques au temps et au lieu. Mais la vision par ordinateur, associée aux algorithmes, est plus efficace dans des environnements prévisibles où les concepts sont objectifs, raisonnablement stables et cohérents en interne.
L’IA va-t-elle aggraver la guerre ?
Nous vivons à une époque de guerres injustes et d’occupations militaires, de violations flagrantes des règles d’engagement et d’une course aux armements naissante face à la rivalité entre les États-Unis et la Chine. Dans ce contexte, l’inclusion de l’IA dans la guerre pourrait ajouter de nouvelles complexités qui exacerberaient les dommages plutôt que de les prévenir.
Les systèmes d’IA facilitent l’anonymat des acteurs de la guerre et peuvent rendre invisibles la source de la violence ou les décisions qui y ont conduit. En retour, nous pourrions assister à une déconnexion croissante entre les militaires, les soldats et les civils et les guerres menées au nom de la nation qu’ils servent.
Et à mesure que l’IA se généralise en temps de guerre, les militaires développeront des contre-mesures pour la contrecarrer, créant ainsi une boucle de militarisation croissante.
Et maintenant?
Pouvons-nous contrôler les systèmes d’IA pour éviter un avenir dans lequel la guerre sera motivée par une dépendance croissante à l’égard d’une technologie soutenue par des algorithmes d’apprentissage ? Contrôler le développement de l’IA dans n’importe quel domaine, notamment via des lois et des réglementations, s’est avéré difficile.
Beaucoup suggèrent que nous avons besoin de meilleures lois pour tenir compte des systèmes soutenus par l’apprentissage automatique, mais même cela n’est pas simple. Les algorithmes d’apprentissage automatique sont difficiles à réglementer.
Les armes basées sur l’IA peuvent se programmer et se mettre à jour elles-mêmes, évitant ainsi les exigences légales de certitude. La maxime technique « le logiciel n’est jamais terminé » implique que la loi ne suivra peut-être jamais la vitesse du changement technologique.
L’acte quantitatif consistant à estimer à l’avance le nombre probable de morts civiles, ce que fait le système Habsora, ne nous dit pas grand-chose sur les dimensions qualitatives du ciblage. Des systèmes comme Habsora, pris isolément, ne peuvent pas vraiment nous dire grand-chose sur le caractère éthique ou légal d’une grève (c’est-à-dire si elle est proportionnée, discriminatoire et nécessaire, entre autres considérations).
L’IA doit soutenir les idéaux démocratiques, et non les miner. La confiance dans les gouvernements, les institutions et les armées s’érode et doit être rétablie si nous envisageons d’appliquer l’IA à un large éventail de pratiques militaires. Nous devons déployer une analyse éthique et politique critique pour interroger les technologies émergentes et leurs effets afin que toute forme de violence militaire soit considérée comme le dernier recours.
En attendant, il est préférable de séparer les algorithmes d’apprentissage automatique des pratiques de ciblage. Malheureusement, les armées du monde vont dans la direction opposée.