L’IA peut aider les organisations humanitaires en cas de conflit armé ou de crise, mais elles doivent comprendre les risques potentiels
L’IA peut aider les humanitaires à obtenir des informations cruciales pour mieux surveiller et anticiper les risques, comme le déclenchement ou l’escalade d’un conflit. Mais le déploiement de systèmes dans ce contexte n’est pas sans risques pour les personnes concernées, prévient une nouvelle étude.
Les organisations humanitaires ont de plus en plus recours aux technologies numériques et la pandémie de COVID-19 a accéléré cette tendance.
La cartographie des catastrophes assistée par l’IA a été utilisée au Mozambique pour accélérer la réponse aux urgences, et des systèmes d’IA ont été utilisés pour prédire les crises alimentaires et déployés par la Banque mondiale dans vingt et un pays.
Mais l’étude prévient que certaines utilisations de l’IA peuvent exposer les personnes à des dommages supplémentaires et présenter des risques importants pour la protection de leurs droits.
L'étude, publiée dans le « Research Handbook on Warfare and Artificial Intelligence », est réalisée par le professeur Ana Beduschi, de la faculté de droit de l'université d'Exeter.
Le professeur Beduschi a déclaré : « Les technologies d’IA ont le potentiel d’élargir encore la panoplie d’outils des missions humanitaires dans leur préparation, leur réponse et leur rétablissement. Mais des mesures de protection doivent être mises en place pour garantir que les systèmes d’IA utilisés pour soutenir le travail des humanitaires ne se transforment pas en outils d’exclusion des populations ayant besoin d’aide. Des mesures de protection concernant le respect et la protection de la confidentialité des données doivent également être mises en place.
« L’impératif humanitaire de « ne pas nuire » devrait être primordial pour tout déploiement de systèmes d’IA dans des situations de conflit et de crise. »
L’étude indique que les organisations humanitaires qui conçoivent des systèmes d’IA doivent garantir la protection des données dès la conception et par défaut, afin de minimiser les risques de préjudice, qu’elles y soient légalement obligées ou non. Elles doivent également utiliser des évaluations d’impact sur la protection des données (AIPD) pour comprendre les impacts négatifs potentiels de ces technologies.
Des mécanismes de réclamation devraient également être mis en place afin que les citoyens puissent contester les décisions qui ont été automatisées ou prises par des humains avec l’aide de systèmes d’IA si celles-ci ont eu un impact négatif sur eux.
Le professeur Beduschi a ajouté : « Les systèmes d’IA peuvent analyser de grandes quantités de données multidimensionnelles à des vitesses de plus en plus rapides, identifier des modèles dans les données et prédire les comportements futurs. Cela peut aider les organisations à obtenir des informations cruciales pour mieux surveiller et anticiper les risques, tels que le déclenchement ou l’escalade d’un conflit. »
« Cependant, le déploiement de systèmes d’IA dans le contexte humanitaire n’est pas sans risques pour les populations affectées. Parmi les problèmes figurent la mauvaise qualité des données utilisées pour former les algorithmes d’IA, l’existence de biais algorithmiques, le manque de transparence sur la prise de décision de l’IA et les préoccupations omniprésentes concernant le respect et la protection de la confidentialité des données.
« Il est essentiel que les humanitaires respectent l’impératif humanitaire de « ne pas nuire » lorsqu’ils décident de déployer ou non l’IA pour soutenir leur action. Dans de nombreux cas, la solution raisonnable serait de ne pas s’appuyer sur les technologies de l’IA, car elles pourraient causer des dommages supplémentaires aux populations civiles. »