On peut déjà parler à Shakira, Musk ou Einstein grâce à une IA (et ça a plus d’implications qu’il n’y paraît)
« La physique de mes jours est morte. » Je ne le dis pas, Einstein le dit. Eh bien, pas le vrai, mais l’avatar virtuel d’Albert Einstein créé par caractère.ai. Cette entreprise créé par deux anciens ingénieurs de Google veut donner une tournure surprenante à la révolution générée par ChatGPT avec l’un des meilleurs projets basés sur cette technologie.
Qu’est-ce que Character.ai. C’est un projet qui, selon ses créateurs, « réalise le rêve de science-fiction de conversations ouvertes et de collaborations avec des ordinateurs ». La plate-forme vous permet de choisir un grand nombre de personnages d’une grande pertinence historique et actuelle, et tente de simuler la manière dont ils répondraient à nos questions.
imiter n’importe qui. Ce système repose sur l’utilisation de modèles de langage neuronal : un supercalculateur est entraîné avec de grandes quantités de textes transcrits ou publiés par ces personnalités, et il apprend à générer des réponses cohérentes liées à cet entraînement.
L’origine. En 2015, Daniel de Freitas, l’un des deux créateurs de Character.ai, travaillait chez Microsoft. Il a lu une étude publiée par les scientifiques de Google Brain. Il détaillait comment un réseau de neurones permettait d’apprendre à converser en analysant des transcriptions de dialogues et de divers textes.
De Freitas a fini par travailler chez Google en 2017, et là, il a travaillé sur son propre chatbot en parallèle de son travail officiel. Le résultat a été Meena, qui est finalement devenue une LaMDA. Un de ses collègues a même affirmé que LaMDA était conscient de lui-même et a été licencié. Google, qui connaît bien sa puissance, a préféré ne pas sortir ce projet du laboratoire pour ne pas nuire à sa réputation. De Freitas et son partenaire Noam Shazzeer ne le pensent pas, et ils ont quitté Google pour se mettre au travail sur ce projet.
Ce n’est pas réel, c’est juste un divertissement.. Les responsables de service eux-mêmes notifier: « Il va sans dire qu’un superordinateur flippant n’est pas une source d’informations fiable. Néanmoins, nous espérons que vous trouverez Character.AI un outil utile pour l’imagination, le brainstorming, l’apprentissage des langues et une foule d’autres objectifs que nous n’avons pas nous-mêmes encore imaginé »
Mais les réponses sont crédibles. Ils ne sont peut-être que pour le divertissement, mais les réponses fournies par ce chatbot multi-personnalités sont vraiment raisonnables. Nous avons demandé à Einstein si la physique conventionnelle était morte, et il a répondu que la théorie quantique avait tout changé… mais que la physique de son temps était morte.
Shakira n’est pas une sainte. La même chose s’est produite lorsque nous avons parlé à l’avatar de Shakira, lorsque nous lui avons demandé pourquoi elle avait créé personneautrement nombreuses chansons de vengeance contre Piqué. La machine nous a dit que « j’avais besoin d’exprimer mes émotions avec des mots comme je le fais toujours… Je n’ai aucun désir de vengeance. Ce n’est pas ma nature. Mais je ne suis pas non plus un saint. » Cette dernière phrase donne une touche certainement crédible à la façon dont ce chatbot s’exprime.
concevoir votre propre avatar. En plus de discuter avec des personnages fictifs célèbres, vous pouvez créer le vôtre. Cette option peut devenir vraiment remarquable, car nous pouvons établir différents attributs et les « entraîner » dans des conversations, en attribuant des étoiles aux réponses qui correspondent le mieux à cette personnalité. Pour l’instant, oui, il ne semble pas possible de forcer l’entraînement avec des textes que l’on a pu trouver de ce caractère.
Confidentialité et autres problèmes. La technologie est incroyable, mais ce n’est pas sans les mêmes problèmes qui ont tourmenté CoPilot ou Stable Diffusion. Ces moteurs peuvent-ils être entraînés librement ? Cela n’implique-t-il pas des problèmes de droit d’auteur ou de propriété intellectuelle ?
Non seulement cela, bien sûr : des doutes surgissent également lorsque ces conversations informelles finissent par être utilisées à d’autres fins : ces moteurs peuvent également être utilisés de manière nuisible, contribuant à générer des fausses nouvelles plus crédibles ou des deepfakes qui fonctionnent en mode texte.