La bévue « effrayante » de l’IA de Snapchat nous rappelle que les chatbots ne sont pas des personnes. Mais à mesure que les lignes s’estompent, les risques augmentent
Les chatbots basés sur l’intelligence artificielle (IA) deviennent de plus en plus humains de par leur conception, au point que certains d’entre nous peuvent avoir du mal à faire la distinction entre l’homme et la machine.
Cette semaine, le chatbot My AI de Snapchat est tombé en panne et a publié une histoire de ce qui ressemblait à un mur et un plafond, avant qu’il ne cesse de répondre aux utilisateurs. Naturellement, Internet a commencé à se demander si le chatbot alimenté par ChatGPT avait gagné en sensibilité.
Un cours intensif de littératie en IA aurait pu dissiper cette confusion. Mais, au-delà de cela, l’incident nous rappelle qu’à mesure que les chatbots IA se rapprochent de la ressemblance avec les humains, la gestion de leur adoption ne fera que devenir plus difficile et plus importante.
Des chatbots basés sur des règles aux chatbots adaptatifs
Depuis que ChatGPT a fait irruption sur nos écrans à la fin de l’année dernière, de nombreuses plateformes numériques ont intégré l’IA à leurs services. Alors même que je rédige cet article sur Microsoft Word, la capacité d’IA prédictive du logiciel suggère des compléments de phrases possibles.
Connu sous le nom d’IA générative, ce type d’IA relativement nouveau se distingue de ses prédécesseurs par sa capacité à générer de nouveaux contenus précis, humains et apparemment significatifs.
Les outils d’IA générative, y compris les générateurs d’images d’IA et les chatbots, sont construits sur de grands modèles de langage (LLM). Ces modèles informatiques analysent les associations entre des milliards de mots, de phrases et de paragraphes pour prédire ce qui devrait suivre dans un texte donné. Comme le dit le co-fondateur d’OpenAI, Ilya Sutskever, un LLM est « […] juste un très, très bon prédicteur du mot suivant. »
Les LLM avancés sont également affinés avec des commentaires humains. Cette formation, souvent dispensée grâce à d’innombrables heures de travail humain bon marché, est la raison pour laquelle les chatbots IA peuvent désormais avoir des conversations apparemment humaines.
Le ChatGPT d’OpenAI est toujours le modèle phare d’IA générative. Sa sortie a marqué une avancée majeure par rapport aux chatbots plus simples « basés sur des règles », tels que ceux utilisés dans le service client en ligne.
Des chatbots de type humain qui parlent à un utilisateur plutôt que à elles ont été associées à des niveaux d’engagement plus élevés. Une étude a révélé que la personnification des chatbots conduit à un engagement accru qui, avec le temps, peut se transformer en dépendance psychologique. Une autre étude impliquant des participants stressés a révélé qu’un chatbot de type humain était plus susceptible d’être perçu comme compétent, et donc plus susceptible d’aider à réduire le stress des participants.
Ces chatbots ont également été efficaces pour atteindre les objectifs organisationnels dans divers contextes, notamment la vente au détail, l’éducation, le lieu de travail et les soins de santé.
Google utilise l’IA générative pour créer un « coach de vie personnel » censé aider les personnes dans diverses tâches personnelles et professionnelles, notamment en fournissant des conseils de vie et en répondant à des questions intimes.
Ceci malgré les propres experts en sécurité de l’IA de Google avertissant que les utilisateurs pourraient devenir trop dépendants de l’IA et pourraient connaître « une santé et un bien-être diminués » et une « perte d’agence » s’ils en suivent les conseils de vie.
Ami ou ennemi, ou juste un bot ?
Lors du récent incident de Snapchat, la société a mis le tout sur le compte d’une « panne temporaire ». Nous ne saurons peut-être jamais ce qui s’est réellement passé; il pourrait s’agir d’un autre exemple d' »hallucination » de l’IA, ou du résultat d’une cyberattaque, ou même simplement d’une erreur opérationnelle.
Quoi qu’il en soit, la vitesse à laquelle certains utilisateurs ont supposé que le chatbot avait atteint la sensibilité suggère que nous assistons à un anthropomorphisme sans précédent de l’IA. Il est aggravé par un manque de transparence de la part des développeurs et un manque de compréhension de base du public.
Nous ne devons pas sous-estimer la façon dont les individus peuvent être induits en erreur par l’authenticité apparente des chatbots de type humain.
Plus tôt cette année, le suicide d’un Belge a été attribué à des conversations qu’il avait eues avec un chatbot sur l’inaction climatique et l’avenir de la planète. Dans un autre exemple, il a été découvert qu’un chatbot nommé Tessa offrait des conseils préjudiciables aux personnes par le biais d’une ligne d’assistance téléphonique pour les troubles de l’alimentation.
Les chatbots peuvent être particulièrement nocifs pour les plus vulnérables d’entre nous, et en particulier pour ceux qui souffrent de troubles psychologiques.
Une nouvelle vallée étrange ?
Vous avez peut-être entendu parler de l’effet « vallée étrange ». Cela fait référence à ce sentiment de malaise que vous ressentez lorsque vous voyez un robot humanoïde qui presque semble humain, mais ses légères imperfections le trahissent et il finit par être effrayant.
Il semble qu’une expérience similaire émerge dans nos interactions avec des chatbots de type humain. Un léger blip peut soulever les poils à l’arrière du cou.
Une solution pourrait être de perdre l’avantage humain et de revenir à des chatbots simples, objectifs et factuels. Mais cela se ferait au détriment de l’engagement et de l’innovation.
L’éducation et la transparence sont essentielles
Même les développeurs de chatbots IA avancés ne peuvent souvent pas expliquer comment ils fonctionnent. Pourtant, à certains égards (et en ce qui concerne les entités commerciales), les avantages l’emportent sur les risques.
L’IA générative a démontré son utilité dans des domaines coûteux tels que la productivité, les soins de santé, l’éducation et même l’équité sociale. Il est peu probable qu’il disparaisse. Alors, comment pouvons-nous le faire fonctionner pour nous?
Depuis 2018, les gouvernements et les organisations ont considérablement poussé à faire face aux risques de l’IA. Mais l’application de normes et de réglementations responsables à une technologie plus « humaine » que toute autre s’accompagne de nombreux défis.
Actuellement, il n’y a aucune obligation légale pour les entreprises australiennes de divulguer l’utilisation de chatbots. Aux États-Unis, la Californie a introduit un « bot bill » qui l’exigerait, mais des experts juridiques l’ont percé – et le projet de loi n’a pas encore été appliqué au moment de la rédaction de cet article.
De plus, ChatGPT et les chatbots similaires sont rendus publics en tant qu' »aperçus de recherche ». Cela signifie qu’ils sont souvent livrés avec de multiples divulgations sur leur nature prototypique, et la responsabilité d’une utilisation responsable incombe à l’utilisateur.
La loi sur l’IA de l’Union européenne, la première réglementation complète au monde sur l’IA, a identifié une réglementation et une éducation modérées comme la voie à suivre, car une réglementation excessive pourrait retarder l’innovation. À l’instar de la littératie numérique, la littératie en IA devrait être obligatoire dans les écoles, les universités et les organisations, et devrait également être rendue gratuite et accessible au public.