L’IA pourrait contribuer à étendre les réponses humanitaires. Mais cela pourrait aussi avoir de gros inconvénients
Alors que l’International Rescue Committee fait face à une augmentation spectaculaire du nombre de personnes déplacées ces dernières années, l’organisation d’aide aux réfugiés a recherché des gains d’efficacité partout où elle le pouvait, notamment en utilisant l’intelligence artificielle.
Depuis 2015, l'IRC a investi dans Signpost, un portefeuille d'applications mobiles et de réseaux sociaux qui répondent aux questions dans différentes langues des personnes se trouvant dans des situations dangereuses. Le projet Signpost, qui inclut de nombreuses autres organisations, a touché jusqu'à présent 18 millions de personnes, mais l'IRC souhaite augmenter considérablement sa portée en utilisant des outils d'IA.
Les conflits, les urgences climatiques et les difficultés économiques ont fait augmenter la demande d’aide humanitaire, avec plus de 117 millions de personnes déplacées de force en 2024, selon l’agence des Nations Unies pour les réfugiés. À mesure que les organisations humanitaires rencontrent davantage de personnes dans le besoin, elles sont également confrontées à d’énormes déficits de financement. Le tournant vers les technologies d’intelligence artificielle est en partie motivé par cet écart massif entre les besoins et les ressources.
Pour atteindre son objectif d'atteindre la moitié des personnes déplacées d'ici trois ans, l'IRC construit un réseau de chatbots IA qui peuvent augmenter les capacités de leurs agents humanitaires et des organisations locales qui servent directement les personnes via Signpost. Pour l'instant, le projet fonctionne au Salvador, au Kenya, en Grèce et en Italie et répond en 11 langues. Il s'appuie sur une combinaison de grands modèles linguistiques de certaines des plus grandes entreprises technologiques, notamment OpenAI, Anthropic et Google.
Le système de réponse chatbot utilise également le logiciel de service client de Zendesk et reçoit d'autres supports de Google et Cisco Systems.
Au-delà du développement de ces outils, l’IRC souhaite étendre gratuitement cette infrastructure à d’autres organisations humanitaires à but non lucratif. Ils espèrent créer des ressources technologiques partagées que des organisations moins axées sur la technologie pourraient utiliser sans avoir à négocier directement avec les entreprises technologiques ni à gérer les risques de déploiement.
« Nous essayons d'être vraiment clairs sur les préoccupations légitimes, mais de nous pencher sur l'optimisme des opportunités et de ne pas permettre aux populations que nous servons d'être laissées pour compte dans des solutions qui ont le potentiel d'évoluer d'une manière humaine à humaine. » ou d'autres technologies ne le peuvent pas », a déclaré Jeannie Annan, directrice de la recherche et de l'innovation de l'International Rescue Committee.
Les réponses et les informations fournies par les chatbots Signpost sont vérifiées par les organisations locales pour être à jour et sensibles aux circonstances précaires dans lesquelles les gens pourraient se trouver. Un exemple de requête partagée par IRC concerne une femme du Salvador traversant le Mexique pour se rendre aux États-Unis avec son fils qui cherche un abri et des services pour son enfant. Le bot fournit une liste de prestataires dans la zone où elle se trouve.
Les requêtes plus complexes ou sensibles sont transmises aux humains pour y répondre.
L’inconvénient potentiel le plus important de ces outils serait qu’ils ne fonctionnent pas. Par exemple, que se passe-t-il si la situation sur le terrain change et que le chatbot ne le sait pas ? Cela pourrait fournir des informations non seulement fausses, mais dangereuses.
Un deuxième problème est que ces outils peuvent constituer une réserve précieuse de données sur les personnes vulnérables que des acteurs hostiles pourraient cibler. Que se passe-t-il si un pirate informatique parvient à accéder à des données contenant des informations personnelles ou si ces données sont accidentellement partagées avec un gouvernement oppressif ?
IRC a déclaré qu'il était convenu avec les fournisseurs de technologie qu'aucun de leurs modèles d'IA ne serait formé sur les données générées par l'IRC, les organisations locales ou les personnes qu'ils servent. Ils ont également travaillé pour anonymiser les données, notamment en supprimant les informations personnelles et la localisation.
Dans le cadre du projet Signpost.AI, l'IRC teste également des outils tels qu'un tuteur numérique automatisé et des cartes pouvant intégrer de nombreux types de données différents pour aider à se préparer et à répondre aux crises.
Cathy Petrozzino, qui travaille pour la société de recherche et développement à but non lucratif MITRE, a déclaré que les outils d'IA présentent certes un potentiel élevé, mais également des risques élevés. Pour utiliser ces outils de manière responsable, a-t-elle déclaré, les organisations devraient se demander si la technologie fonctionne ? Est-ce juste ? Les données et la vie privée sont-elles protégées ?
Elle a également souligné que les organisations doivent réunir un large éventail de personnes pour les aider à gouverner et à concevoir l’initiative : pas seulement des experts techniques, mais aussi des personnes ayant une connaissance approfondie du contexte, des experts juridiques et des représentants des groupes qui utiliseront les outils.
« Il existe de nombreux bons modèles dans le cimetière de l'IA », a-t-elle déclaré, « parce qu'ils n'ont pas été élaborés en collaboration avec la communauté des utilisateurs. »
Pour tout système susceptible de changer la vie, a déclaré Petrozzino, les groupes devraient faire appel à des experts externes pour évaluer de manière indépendante leurs méthodologies. Les concepteurs d’outils d’IA doivent prendre en compte les autres systèmes avec lesquels ils interagiront, a-t-elle déclaré, et ils doivent planifier la surveillance du modèle au fil du temps.
Consulter les personnes déplacées ou d'autres personnes aidées par les organisations humanitaires peut augmenter le temps et les efforts nécessaires à la conception de ces outils, mais ne pas avoir leur contribution soulève de nombreux problèmes de sécurité et d'éthique, a déclaré Helen McElhinney, directrice exécutive du réseau CDAC. Cela peut également débloquer des connaissances locales.
Les personnes recevant des services d’organisations humanitaires devraient savoir si un modèle d’IA analysera les informations qu’elles transmettent, a-t-elle déclaré, même si l’intention est d’aider l’organisation à mieux réagir. Cela nécessite un consentement significatif et éclairé, a-t-elle déclaré. Ils devraient également savoir si un modèle d’IA prend des décisions qui changent la vie concernant l’allocation des ressources et à qui incombe la responsabilité de ces décisions, a-t-elle déclaré.
Degan Ali, PDG d'Adeso, une organisation à but non lucratif en Somalie et au Kenya, milite depuis longtemps pour changer la dynamique du pouvoir dans le développement international afin de donner plus d'argent et de contrôle aux organisations locales. Elle a demandé comment l'IRC et d'autres qui recherchent ces technologies pourraient surmonter les problèmes d'accès, soulignant les coupures de courant d'une semaine causées par l'ouragan Helene aux États-Unis. Les chatbots n'aideront pas lorsqu'il n'y a pas d'appareil, d'Internet ou d'électricité, a-t-elle déclaré.
Ali a également averti que peu d’organisations locales ont la capacité d’assister aux grandes conférences humanitaires où l’éthique de l’IA est débattue. Rares sont ceux qui disposent d'un personnel suffisamment expérimenté et suffisamment compétent pour réellement s'engager dans ces discussions, a-t-elle déclaré, même s'ils comprennent le pouvoir et l'impact potentiels de ces technologies.
« Nous devons être extrêmement prudents pour ne pas reproduire les déséquilibres de pouvoir et les préjugés à travers la technologie », a déclaré Ali. « Les questions les plus complexes nécessiteront toujours une expérience locale, contextuelle et vécue pour y répondre de manière significative. »