Les chatbots peuvent-ils mieux gérer les questions médicales que les médecins ?  L'étude dit oui

Les chatbots IA s'immiscent dans les communautés en ligne où les gens tentent de se connecter avec d'autres humains

Un parent a posé une question dans un groupe Facebook privé en avril 2024 : toute personne ayant un enfant à la fois surdoué et handicapé a-t-elle une expérience dans les écoles publiques de la ville de New York ? Le parent a reçu une réponse apparemment utile qui lui présentait certaines caractéristiques d'une école spécifique, à commencer par le contexte « J'ai un enfant qui est aussi en 2e », ce qui signifie deux fois exceptionnel.

Sur un groupe Facebook d'échange d'objets indésirables près de Boston, un utilisateur recherchant des articles spécifiques a reçu une offre d'un appareil photo Canon « légèrement utilisé » et d'une « unité de climatisation portable presque neuve que je n'ai jamais utilisée ».

Ces deux réponses étaient des mensonges. Cet enfant n’existe pas, pas plus que la caméra ou le climatiseur. Les réponses sont venues d’un chatbot à intelligence artificielle.

Selon une page d'aide Meta, Meta AI répondra à une publication dans un groupe si quelqu'un la marque explicitement ou si quelqu'un « pose une question dans une publication et que personne ne répond dans l'heure ». La fonctionnalité n'est pas encore disponible dans toutes les régions ni pour tous les groupes, selon la page. Pour les groupes où il est disponible, « les administrateurs peuvent le désactiver et le réactiver à tout moment ».

Meta AI a également été intégrée aux fonctionnalités de recherche sur Facebook et Instagram, et les utilisateurs ne peuvent pas la désactiver.

En tant que chercheur qui étudie à la fois les communautés en ligne et l’éthique de l’IA, je trouve que l’idée de chatbots non invités répondant aux questions des groupes Facebook est dystopique pour un certain nombre de raisons, à commencer par le fait que les communautés en ligne sont destinées aux gens.

Connexions humaines

En 1993, Howard Rheingold a publié le livre « The Virtual Community : Homesteading on the Electronic Frontier » sur le WELL, une des premières communautés en ligne culturellement significatives. Le premier chapitre s'ouvre sur une question parentale : que faire à propos d'une « chose gonflée de sang qui suce le cuir chevelu de notre bébé ».

Rheingold a reçu une réponse d'une personne ayant une connaissance directe du traitement des tiques et a résolu le problème avant de recevoir un rappel du cabinet du pédiatre. À propos de cette expérience, il écrit : « Ce qui m'a étonné n'était pas seulement la rapidité avec laquelle nous avons obtenu précisément les informations que nous avions besoin de connaître, juste au moment où nous avions besoin de les connaître. C'était aussi l'immense sentiment de sécurité intérieur qui accompagne la découverte. que de vraies personnes – pour la plupart des parents, quelques-unes des infirmières, des médecins et des sages-femmes – sont disponibles 24 heures sur 24, si vous en avez besoin. »

Cet aspect « vraies personnes » des communautés en ligne continue d'être essentiel aujourd'hui. Imaginez pourquoi vous pourriez poser une question à un groupe Facebook plutôt qu'à un moteur de recherche : parce que vous voulez une réponse d'une personne ayant une expérience réelle et vécue ou parce que vous voulez la réponse humaine que votre question pourrait susciter – sympathie, indignation, commisération – ou les deux.

Des décennies de recherche suggèrent que la composante humaine des communautés en ligne est ce qui les rend si précieuses tant pour la recherche d’informations que pour le soutien social. Par exemple, les pères qui autrement se sentiraient mal à l’aise de demander des conseils parentaux ont trouvé refuge dans des espaces privés en ligne réservés aux papas. Les jeunes LGBTQ+ rejoignent souvent les communautés en ligne pour trouver en toute sécurité des ressources essentielles tout en réduisant le sentiment d'isolement. Les forums de soutien en santé mentale offrent aux jeunes une appartenance et une validation en plus de conseils et d'un soutien social.

En plus des résultats similaires obtenus dans mon propre laboratoire concernant les participants LGBTQ+ dans les communautés en ligne, ainsi que sur Black Twitter, deux études plus récentes, non encore évaluées par des pairs, ont souligné l'importance des aspects humains de la recherche d'informations dans les communautés en ligne.

L'un, dirigé par le doctorat. Blakeley Payne, étudiant, se concentre sur les expériences des personnes grosses en ligne. Beaucoup de nos participants ont trouvé une bouée de sauvetage en accédant à un public et à une communauté ayant des expériences similaires alors qu'ils recherchaient et partageaient des informations sur des sujets tels que la navigation dans des systèmes de santé hostiles, la recherche de vêtements et la gestion des préjugés et des stéréotypes culturels.

Une autre étude, dirigée par Faye Kollig, étudiante au doctorat, a découvert que les personnes qui partagent du contenu en ligne sur leurs maladies chroniques sont motivées par le sentiment de communauté qui accompagne le partage d'expériences, ainsi que par les aspects humanisants de la connexion avec les autres, à la fois pour rechercher et fournir. soutien et informations.

Fausses personnes

Les avantages les plus importants de ces espaces en ligne, tels que décrits par nos participants, pourraient être considérablement compromis par les réponses provenant des chatbots plutôt que des personnes.

En tant que diabétique de type 1, je suis un certain nombre de groupes Facebook connexes qui sont fréquentés par de nombreux parents confrontés récemment aux défis liés à la prise en charge d'un jeune enfant diabétique. Les questions sont fréquentes : « Qu'est-ce que cela signifie ? « Comment dois-je gérer ça ? » « Quelles sont vos expériences à ce sujet ? » Les réponses viennent de l'expérience directe, mais elles viennent aussi généralement avec compassion : « C'est difficile. » « Tu fais de ton mieux. » Et bien sûr : « Nous sommes tous passés par là. »

Une réponse d’un chatbot prétendant parler de l’expérience vécue de la prise en charge d’un enfant diabétique, offrant de l’empathie, serait non seulement inappropriée, mais elle serait à la limite de la cruauté.

Cependant, il est tout à fait logique que ce soient les types de réponses qu’un chatbot offrirait. De manière simpliste, les grands modèles de langage fonctionnent plus de manière similaire à la saisie semi-automatique qu'aux moteurs de recherche. Pour un modèle formé sur des millions et des millions de publications et de commentaires dans les groupes Facebook, la réponse « à saisie semi-automatique » à une question dans une communauté d'assistance est définitivement une réponse qui invoque l'expérience personnelle et offre de l'empathie, tout comme la réponse « à saisie semi-automatique » dans un achat. Rien de ce groupe Facebook ne pourrait offrir à quelqu'un un appareil photo légèrement utilisé.

Garder les chatbots dans leur voie

Cela ne veut pas dire que les chatbots ne sont utiles à rien : ils peuvent même être très utiles dans certaines communautés en ligne, dans certains contextes. Le problème est qu’au milieu de la ruée actuelle sur l’IA générative, on a tendance à penser que les chatbots peuvent et doivent tout faire.

L’utilisation de grands modèles linguistiques comme systèmes de recherche d’informations présente de nombreux inconvénients, et ces inconvénients indiquent des contextes inappropriés pour leur utilisation. Un inconvénient est que des informations incorrectes peuvent être dangereuses : une ligne d'assistance téléphonique pour les troubles de l'alimentation ou des conseils juridiques pour les petites entreprises, par exemple.

La recherche souligne des considérations importantes sur la manière et le moment de concevoir et de déployer des chatbots. Par exemple, un article récemment publié lors d’une grande conférence sur l’interaction homme-machine a révélé que même si les personnes LGBTQ+ manquant de soutien social se tournaient parfois vers des chatbots pour répondre à leurs besoins en matière de santé mentale, ces chatbots ne parvenaient souvent pas à saisir la nuance des défis spécifiques aux LGBTQ+.

Un autre a découvert que même si un groupe de participants autistes trouvait utile d’interagir avec un chatbot pour obtenir des conseils en matière de communication sociale, ce chatbot dispensait également des conseils douteux. Un autre encore a découvert que même si un chatbot était utile comme outil de préconsultation dans un contexte de santé, les patients trouvaient parfois les expressions d’empathie peu sincères ou offensantes.

Le développement et le déploiement responsables de l’IA signifient non seulement vérifier les problèmes tels que les préjugés et la désinformation, mais également prendre le temps de comprendre dans quels contextes l’IA est appropriée et souhaitable pour les humains qui interagiront avec elles. À l’heure actuelle, de nombreuses entreprises utilisent l’IA générative comme un marteau et, par conséquent, tout ressemble à un clou.

Il est préférable de laisser de nombreux contextes, tels que les communautés d’assistance en ligne, aux humains.

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.La conversation