Pourquoi Bing AI de Microsoft est-il si déséquilibré ?
Il y a une course pour transformer la recherche. Et Microsoft vient de marquer un but à domicile avec son nouveau chatbot de recherche Bing, Sydney, qui a terrifié les premiers utilisateurs avec des menaces de mort, entre autres sorties troublantes.
Les chatbots de recherche sont des outils alimentés par l’IA intégrés aux moteurs de recherche qui répondent directement à la requête d’un utilisateur, au lieu de fournir des liens vers une réponse possible. Les utilisateurs peuvent également avoir des conversations continues avec eux.
Ils promettent de simplifier la recherche. Plus besoin de parcourir les pages de résultats, de passer sous silence les publicités pendant que vous essayez de trouver une réponse à votre question. Au lieu de cela, le chatbot synthétise une réponse plausible pour vous. Par exemple, vous pourriez demander un poème pour le 90e anniversaire de votre grand-mère, dans le style de Pam Ayres, et recevoir en retour des vers comiques.
Microsoft mène désormais la course aux chatbots de recherche avec Sydney (aussi mitigée que sa réception ait été). Les 10 milliards de dollars du géant de la technologie Partenariat avec OpenAI lui fournit un accès exclusif à ChatGPT, l’un des meilleurs chatbots les plus récents.
Alors pourquoi tout ne se passe-t-il pas comme prévu ?
L’IA de Bing devient folle
Plus tôt ce mois-ci, Microsoft l’a annoncé avait incorporé ChatGPT dans Bing, donnant naissance à « Sydney ». Dans les 48 heures suivant la diffusion, un million de personnes rejoint la liste d’attente pour l’essayer.
Google a répondu avec sa propre annonce, en faisant la démonstration d’un chatbot de recherche nommé « Bard », en hommage au plus grand écrivain de langue anglaise. La démo de Google a été un désastre pour les relations publiques.
Lors d’un événement d’entreprise, Bard a donné la mauvaise réponse à une question et le cours de l’action de la société mère de Google, Alphabet, chuté de façon spectaculaire. L’incident a effacé plus de 100 milliards de dollars américains de la valeur totale de l’entreprise.
D’un autre côté, tout allait bien pour Microsoft. C’est jusqu’à ce que les premiers utilisateurs de Sydney commencent à rendre compte de leurs expériences.
Il y a des moments où le chatbot ne peut être décrit que comme déséquilibré. Cela ne veut pas dire que cela ne fonctionne pas parfaitement à d’autres moments, mais de temps en temps, cela montre un côté troublant.
Dans un exemple, il a menacé de tuer un professeur à l’université nationale australienne. Dans un autre, il proposition de mariage à un journaliste du New York Times et a tenté de rompre son mariage. Ça aussi essayé d’allumer du gaz un utilisateur en pensant que c’était encore 2022.
Cela expose un problème fondamental avec les chatbots : ils sont entraînés en versant une fraction importante d’Internet dans un vaste réseau de neurones. Cela pourrait inclure tout Wikipedia, tout Reddit et une grande partie des médias sociaux et des actualités. Ils fonctionnent comme la saisie semi-automatique sur votre téléphone, ce qui permet de prédire le prochain mot le plus probable dans une phrase. En raison de leur ampleur, les chatbots peuvent compléter des phrases entières, et même des paragraphes. Mais ils répondent toujours avec ce qui est probable, pas avec ce qui est vrai.
Des garde-corps sont ajoutés pour les empêcher de répéter une grande partie du contenu offensant ou illégal en ligne, mais ces garde-fous sont faciles à sauter. En fait, le chatbot de Bing se fera un plaisir de révéler qu’il s’appelle Sydney, même si cela va à l’encontre des règles avec lesquelles il a été programmé.
Une autre règle, que l’IA elle-même a divulguée bien qu’elle ne soit pas censée le faire, est qu’elle devrait « éviter d’être vague, controversée ou hors sujet ». Pourtant, Kevin Roose, le journaliste du New York Times que le chatbot voulait épouser, l’a décrit comme « un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, à l’intérieur d’un moteur de recherche de second ordre ».
Pourquoi toute cette angoisse ?
Ma théorie quant à la raison pour laquelle Sydney peut se comporter de cette façon – et je répète que ce n’est qu’une théorie, car nous ne le savons pas avec certitude – est que Sydney n’est peut-être pas construite sur le chatbot GPT-3 d’OpenAI (qui alimente le populaire ChatGPT). Au contraire, il peut être construit sur le GPT-4 qui n’a pas encore été publié.
On pense que le GPT-4 contient 100 000 milliards de paramètres, contre seulement 175 milliards de paramètres pour le GPT-3. En tant que tel, GPT-4 serait probablement beaucoup plus capable et, par extension, beaucoup plus capable d’inventer des choses.
Étonnamment, Microsoft n’a pas répondu avec une grande inquiétude. Il publié un blog documentant comment 71% des premiers utilisateurs de Sydney dans 169 pays ont donné un coup de pouce au chatbot. Il semble que 71% soit un score suffisant aux yeux de Microsoft.
Et contrairement à Google, le cours de l’action Microsoft n’a pas encore chuté. Cela reflète le jeu ici. Google est le fer de lance de cet espace depuis si longtemps que les utilisateurs ont élevé leurs attentes. Google ne peut que descendre et Microsoft monter.
Malgré le comportement inquiétant de Sydney, Microsoft bénéficie d’une attention sans précédent, et les utilisateurs (par intrigue ou autre) affluent toujours pour essayer Sydney.
Quand la nouveauté s’apaise
Il y a un autre jeu beaucoup plus important en jeu, et il concerne ce que nous considérons comme vrai. Si les chatbots de recherche décollent (ce qui me semble probable), mais continuent de fonctionner comme Sydney l’a fait jusqu’à présent (ce qui me semble également probable), la « vérité » va devenir un concept encore plus intangible.
Internet regorge de fausses nouvelles, de théories du complot et de désinformation. Une recherche Google standard nous offre au moins la possibilité d’arriver à la vérité. Si nos moteurs de recherche « de confiance » ne sont plus dignes de confiance, que deviendrons-nous ?
Au-delà de ça, Les réponses de Sydney ne peut s’empêcher de conjurer images de Tay— Le chatbot IA de Microsoft de 2016 qui s’est transformé en racisme et en xénophobie le jour suivant sa sortie. Les gens ont eu une journée sur le terrain avec Tay, et en réponse, il a semblé incorporer certains des pires aspects des êtres humains en lui-même.
Les nouvelles technologies ne doivent, avant tout, pas nuire à l’homme. Les modèles qui sous-tendent les chatbots peuvent devenir de plus en plus grands, alimentés par de plus en plus de données, mais cela seul n’améliorera pas leurs performances. Il est difficile de dire où nous finirons, si nous ne pouvons pas construire les garde-corps plus haut.