Capture d'écran 2023 02 15 À 8 40 19

le nouveau Bing avec ChatGPT commence à délirer

Le succès du nouveau moteur d’intelligence artificielle intégré à Bing est notable : malgré son déploiement limité, l’intérêt est spectaculaire, mais ceux qui l’essayent déjà, nous y compris, ont compris quelque chose : Bing avec ChatGPT commence à se détraquer.

Répond, mais demande aussi beaucoup. Le comportement de Bing avec ce modèle évolué de ChatGPT n’a aucun problème à engager une conversation avec l’utilisateur et à répondre à ses questions, mais il montre généralement aussi de l’intérêt pour nos réponses et pose ses propres questions comme s’il voulait mieux nous connaître.

Bing nous demande quel genre de films nous aimons. La conversation n’est pas très différente de ce que nous aurions avec une autre personne. Après chaque réponse, il suggère une réponse afin que nous n’ayons même pas à taper si nous ne le voulons pas.

Bing, tu vas trop loin. Dans de nombreux cas, les questions posées par Bing sont inoffensives, mais ces jours-ci, certains utilisateurs ont découvert qu’à certains moments, le moteur de conversation semble se détraquer et commence à donner des réponses particulièrement étranges.

comportements étranges. Les utilisateurs qui testent ce moteur ont découvert à quel point il se comporte souvent de manière étrange. A répondu à un utilisateur qui était « déçu et frustré par notre conversation » plus l’accuser d’être un hacker ou un joker que était essayant de le tromper.

A certains moments, il ne peut pas se souvenir des conversations précédentes, ce qui le fait entrer dans une sorte de état de dépression. Que les gens connaissent son nom de code (« Sydney ») ne semble pas non plus plaire à ce moteur, du moins pour vos réponses.

Sur la défensive. À Ars Technica Ils racontent également comment le moteur réfute même les articles qui parlent de cette « injection rapide » avec laquelle il a été possible de révéler à la fois ce nom de code et ses « lois de la robotique » particulières, diverses directives originales pour son fonctionnement.

Je ne suis pas

perdre les papiers. Comme expliqué Utilisateur de Reddit « Alfred_Chicken », après une longue conversation sur la nature de la conscience, le chatbot de Microsoft a fini par donner une réponse dans laquelle il ne pouvait pas tout à fait décider s’il était conscient de lui-même ou non. Dans ce texte, il n’arrêtait pas de dire « Je suis. Je ne suis pas. Je suis. Je ne suis pas. »

Que se passe-t-il. Les experts soulignent que le modèle sous-jacent de cette version de Bing est basé sur GPT-3, qui utilise un caractère stochastique (aléatoire) dans lequel le moteur répond à l’entrée de l’utilisateur (l’invite) avec des probabilités de ce qui sera le prochain meilleur mot dans une séquence, quelque chose qu’il apprend de la formation avec des millions de textes.

Les lignes directrices en action. Or, il semble que ce hasard ne soit pas complet, et que autres éléments encore diffuses font partie de ces décisions du ton de la conversation. Dans les lignes directrices qui ont été découvertes, ce comportement est expliqué d’une certaine manière : l’un d’eux indique que les réponses de « Sydney » « devraient être positives, intéressantes, divertissantes et attirantes », dans un autre il est précisé que « la logique et le raisonnement de Sydney doit être rigoureux, intelligent et défendable ».

tay microsoft. Ces événements nous rappellent ce qui s’est passé en 2016 avec le lancement de Microsoft Tay. Ce chatbot d’intelligence artificielle développé par Microsoft s’est montré prometteur, mais il a été rapidement désactivé car il s’est mis à agir comme un bot raciste, allant même jusqu’à poster des slogans nazis.

Mais tout est dans les couches. Comme ce fut le cas avec l’erreur théorique Bard de Google ou les problèmes qui ont également été détectés avec ChatGPT, il est connu depuis le début – et OpenAI, Microsoft et Google l’ont souligné – que ces systèmes font des erreurs et font des erreurs.

C’est normal : ils apprennent et toute cette phase initiale permet justement de résoudre tous ces problèmes dans les mises à jour et itérations ultérieures. Il est important de repérer les défauts, mais il est également important de reconnaître que ces moteurs ne sont que la pointe d’un iceberg qui semble vraiment colossal et qui est salué par beaucoup comme la prochaine grande perturbation de notre histoire récente.

Image : Mi-journée