Comment ChatGPT pourrait aider les plus pauvres du monde et les organisations qui travaillent avec eux
ChatGPT a été présenté comme un outil qui va révolutionner le lieu de travail et la maison. Les systèmes d’IA comme celui-ci ont le potentiel d’améliorer la productivité, mais pourraient également déplacer des emplois. Le site Web ChatGPT a reçu 1,5 milliard de visites le mois dernier.
Bien qu’il n’existe pas de statistiques complètes, ces utilisateurs sont probablement relativement instruits et ont accès à des smartphones ou à des ordinateurs. Alors, le chatbot IA peut-il aussi profiter à des personnes qui n’ont pas tous ces avantages ?
Nous sommes associés à Friend in Need India Trust (FIN), une organisation non gouvernementale (ONG) basée dans un village de pêcheurs isolé nommé Kameswaram dans l’État du Tamil Nadu. FIN mène une bataille quotidienne contre le manque d’autonomisation des femmes, la pollution et le manque d’assainissement fonctionnel.
Ces problèmes et d’autres constituent des obstacles majeurs au développement économique local. Récemment, un collègue de FIN, le Dr Raja Venkataramani, est revenu des États-Unis pour discuter de ChatGPT. Il s’est demandé si le chatbot AI pourrait aider à créer une prise de conscience, une motivation et un engagement communautaire envers nos objectifs de développement durable à Kameswaram.
Pour une expérience, nous avons travaillé avec des femmes locales qui sont membres du personnel de FIN mais qui n’avaient pas un niveau d’éducation élevé. Le personnel féminin de FIN est composé de villageois locaux aux prises avec des attitudes patriarcales à la maison, qui ont du mal à construire des arguments engageants pour motiver les populations locales, en particulier les garçons et les hommes, à économiser l’eau, à utiliser les toilettes et à ne pas jeter de déchets dans les lieux publics.
Nous leur avons présenté ChatGPT comme un outil pour les aider dans leur vie et leur travail. Après l’avoir installé sur leurs téléphones, ils l’ont trouvé très utile. ChatGPT a agi comme un compagnon et s’est souvenu de ce qui avait été discuté précédemment.
Un membre du personnel voulait l’utiliser pour débattre de politique avec son mari à l’approche des élections régionales. Elle a demandé à ChatGPT ce qui était bon et mauvais à propos de son candidat préféré et a demandé qu’il le confirme avec des données.
Elle l’a ensuite répété pour l’adversaire de ce politicien. Elle a trouvé que les réponses des deux candidats étaient tout aussi convaincantes. Le membre du personnel n’a pas eu la patience de vérifier la véracité des arguments et s’est retrouvé encore plus confus. Cela l’a rendue réticente à utiliser à nouveau ChatGPT.
Sam Altman, le créateur de ChatGPT, ainsi que d’autres leaders technologiques aux États-Unis, appellent à une réglementation pour contenir les risques d’hallucinations de l’IA, c’est-à-dire lorsque la technologie génère de fausses informations susceptibles de déclencher des tensions sociales. Nous avons demandé à ChatGPT de produire un discours appelant à réprimer une foule déterminée à commettre des crimes d’honneur.
Aujourd’hui encore, l’Inde reste en proie à des violences communautaires telles que des crimes d’honneur contre, par exemple, des couples qui se marient en dehors de leur caste ou des jeunes femmes qui cherchent un emploi en dehors du village. ChatGPT s’est avéré être un rédacteur de discours très efficace, produisant des arguments convaincants contre ces actes.
Cependant, les partisans du maintien du statu quo pourraient également utiliser le chatbot pour justifier leur comportement violent auprès de la communauté. Cela pourrait se produire s’ils cherchaient à conserver leur statut au sein du village, en contrant tout effort visant à encourager les membres de la communauté à mettre fin à ces pratiques. Nous avons constaté que le système d’IA était tout aussi apte à produire des arguments en faveur des crimes d’honneur.
Dans une expérience différente, nous avons cherché à voir comment le chatbot pourrait aider les ONG à promouvoir l’autonomisation des femmes – une mission centrale de FIN – d’une manière qui pourrait bénéficier à la communauté. Nous avons demandé à ChatGPT de créer un discours expliquant la pertinence de la Journée internationale de la femme aux villageois.
Le discours était très impressionnant, mais il contenait des erreurs factuelles sur les rapports de masculinité, l’avortement des fœtus en dehors des limites légales et la participation des femmes à la population active. Lorsqu’on a demandé à ChatGPT de justifier les erreurs, il a répondu : « Je m’excuse pour toute confusion. J’ai fourni une statistique hypothétique pour illustrer ce point. »
Problème de pollution
Dans une autre expérience, nous avons voulu aborder le problème de la pollution des fêtes traditionnelles en Inde. Ceux-ci impliquent souvent des pétards et des fêtes, ce qui augmente les niveaux de pollution de l’air et de l’eau.
Bien que le théâtre de rue ait déjà été utilisé avec succès pour motiver un changement de comportement, ni le personnel de FIN ni ses mentors ne se sont sentis capables d’écrire un scénario. Cependant, moins de trois minutes après avoir reçu la bonne invite, ChatGPT a proposé un sketch impliquant des jeunes.
Il comprenait à la fois des personnages masculins et féminins, utilisait des noms locaux et tenait compte des nuances locales. Le personnel de la FIN a renforcé le caractère local du sketch en y insérant ses propres blagues. La courte pièce de théâtre a fait valoir que l’impact sur nos océans des microfibres des vêtements synthétiques représente un problème environnemental important qui peut nuire aux moyens de subsistance.
Demander à l’IA
Nous avons demandé à ChatGPT son avis sur nos résultats. Il a affirmé que ChatGPT peut être un outil précieux pour les personnes économiquement défavorisées et les ONG, car il fournit des informations précieuses, offre un soutien émotionnel et rend la communication plus efficace.
Mais le chatbot a évité de discuter de ses inconvénients évidents, comme l’argumentation basée sur des informations fausses, incomplètes ou imparfaites. Tout comme il peut nous aider, il peut également agir comme un rédacteur de discours compétent pour ceux qui chercheraient à diviser ou à augmenter les tensions.
Pour l’instant, ChatGPT semble être un outil pratique pour les ONG bien intentionnées, mais pas tant pour les individus ordinaires qu’elles assistent. Si les utilisateurs n’ont pas les moyens de contrôler l’éthique et la véracité des suggestions de ChatGPT, les systèmes d’IA pourraient devenir de dangereux catalyseurs de désinformation et de mésinformation.