À mesure que la sophistication des chatbots augmente, le débat sur l'IA s'intensifie

À mesure que la sophistication des chatbots augmente, le débat sur l’IA s’intensifie

La start-up OpenAI conçoit des logiciels sophistiqués d’intelligence artificielle capables de générer des images (DALL-E) ou du texte (GPT-3, ChatGPT).

La start-up californienne OpenAI a sorti un chatbot capable de répondre à diverses questions, mais ses performances impressionnantes ont relancé le débat sur les risques liés aux technologies d’intelligence artificielle (IA).

Les conversations avec ChatGPT, postées sur Twitter par des utilisateurs fascinés, montrent une sorte de machine omnisciente, capable d’expliquer des concepts scientifiques et d’écrire des scènes pour une pièce de théâtre, des dissertations universitaires ou encore des lignes fonctionnelles de code informatique.

« Sa réponse à la question ‘que faire si quelqu’un fait une crise cardiaque’ était incroyablement claire et pertinente », a déclaré à l’AFP Claude de Loupy, patron de Syllabs, une société française spécialisée dans la génération automatique de textes.

« Lorsque vous commencez à poser des questions très précises, la réponse de ChatGPT peut être à côté de la plaque », mais ses performances globales restent « vraiment impressionnantes », avec un « niveau linguistique élevé », a-t-il déclaré.

OpenAI, cofondé en 2015 à San Francisco par le magnat de la technologie milliardaire Elon Musk, qui a quitté l’entreprise en 2018, a reçu 1 milliard de dollars de Microsoft en 2019.

La start-up est surtout connue pour ses logiciels de création automatisée : GPT-3 pour la génération de texte et DALL-E pour la génération d’images.

ChatGPT est capable de demander des détails à son interlocuteur, et a moins de réponses étranges que GPT-3, qui, malgré ses prouesses, crache parfois des résultats absurdes, a déclaré De Loupy.

Cicéron

« Il y a quelques années, les chatbots avaient le vocabulaire d’un dictionnaire et la mémoire d’un poisson rouge », a déclaré Sean McGregor, un chercheur qui gère une base de données sur les incidents liés à l’IA.

« Les chatbots s’améliorent beaucoup sur le » problème d’historique « où ils agissent d’une manière cohérente avec l’historique des requêtes et des réponses. Les chatbots sont sortis du statut de poisson rouge. »

Comme d’autres programmes reposant sur l’apprentissage en profondeur, mimant l’activité neuronale, ChatGPT a une faiblesse majeure : « il n’a pas accès au sens », explique De Loupy.

Le logiciel ne peut pas justifier ses choix, comme expliquer pourquoi il a choisi les mots qui composent ses réponses.

Les technologies d’IA capables de communiquer sont néanmoins de plus en plus capables de donner une impression de pensée.

Des chercheurs de Meta, parent de Facebook, ont récemment développé un programme informatique baptisé Cicéron, du nom de l’homme d’État romain.

Le logiciel s’est avéré compétent dans le jeu de société Diplomacy, qui nécessite des compétences en négociation.

« S’il ne parle pas comme une vraie personne, en faisant preuve d’empathie, en établissant des relations et en parlant en connaissance de cause du jeu, il ne trouvera pas d’autres joueurs prêts à travailler avec lui », a déclaré Meta dans les résultats de la recherche.

En octobre, Character.ai, une start-up fondée par d’anciens ingénieurs de Google, a mis en ligne un chatbot expérimental pouvant adopter n’importe quelle personnalité.

Les utilisateurs créent des personnages basés sur une brève description et peuvent ensuite « discuter » avec un faux Sherlock Holmes, Socrate ou Donald Trump.

« Juste une machine »

Ce niveau de sophistication fascine et inquiète à la fois certains observateurs, qui craignent que ces technologies ne soient utilisées à mauvais escient pour tromper les gens, en diffusant de fausses informations ou en créant des escroqueries de plus en plus crédibles.

Que pense ChatGPT de ces dangers ?

« Il y a des dangers potentiels à construire des chatbots hautement sophistiqués, en particulier s’ils sont conçus pour être indiscernables des humains dans leur langage et leur comportement », a déclaré le chatbot à l’AFP.

Certaines entreprises mettent en place des garde-fous pour éviter les abus de leurs technologies.

Sur sa page d’accueil, OpenAI présente des clauses de non-responsabilité, indiquant que le chatbot « peut parfois générer des informations incorrectes » ou « produire des instructions nuisibles ou un contenu biaisé ».

Et ChatGPT refuse de prendre parti.

« OpenAI a rendu incroyablement difficile l’obtention du modèle pour exprimer des opinions sur les choses », a déclaré McGregor.

Une fois, McGregor a demandé au chatbot d’écrire un poème sur une question éthique.

« Je ne suis qu’une machine, un outil que vous pouvez utiliser, je n’ai pas le pouvoir de choisir ou de refuser. Je ne peux pas peser les options, je ne peux pas juger ce qui est juste, je ne peux pas prendre de décision en cette nuit fatidique. » il a répondu.

Samedi, le cofondateur et PDG d’OpenAI, Sam Altman, s’est rendu sur Twitter, réfléchissant aux débats entourant l’IA.

« Il est intéressant de regarder les gens commencer à débattre pour savoir si les systèmes d’IA puissants doivent se comporter comme le souhaitent les utilisateurs ou comme le souhaitent leurs créateurs », a-t-il écrit.

« La question de savoir sur quelles valeurs nous alignons ces systèmes sera l’un des débats les plus importants que la société ait jamais eus. »