Algorithmes imparfaits : quand les biais et le secret laissent plus de questions que de réponses (Clear the X, 1x70)

StableLM. C’est le premier d’une longue série à venir

Ici celui qui ne court pas vole. Nombreuses sont les entreprises qui tentent de prendre le train en marche de l’intelligence artificielle générative, et parmi les mouvements les plus intéressants figure celui des rivaux de ChatGPT. Pas les commerciaux, non : les personnels et ils commencent à apparaître avec des licences Open Source que tout le monde peut utiliser librement. Nous avons déjà un exemple prometteur.

StableLM. C’est le nom du modèle créé par IA de stabilité, la même startup responsable du fantastique Stable Diffusion pour générer des images. Maintenant, ils ont fait quelque chose de similaire avec StableLMun modèle d’IA conversationnel qui tente de concurrencer ChatGPT et le fait également avec un modèle Open Source.

vous pouvez l’essayer maintenant. Le code de ce modèle est en version alpha, mais il peut déjà être testé via le code sur github ou directement via HuggingFace, une plate-forme qui vous permet d’héberger ces modèles d’IA et également de coder. Selon Stability AI, les modèles StableLM disponibles peuvent générer à la fois du code et du texte et démontrer que même avec une empreinte relativement petite, « de grandes performances peuvent être fournies avec une formation appropriée ».

Comment avez-vous été formé ? Stability AI explique que la formation a été effectuée avec un ensemble de données appelé La pile, qui rassemble des textes provenant de sites Web tels que PubMed, StackExchange ou Wikipedia. Ils ont également ajouté un ensemble de données de formation supplémentaire qui, selon cette startup, a multiplié par trois la taille de The Pile. Ici, il convient de noter que Stability AI est actuellement plongé dans des réclamations légales pour avoir formé Stable Diffusion avec des images provenant de référentiels non publics tels que Getty Images.

Capture d'écran 2023 04 20 Au 11 13 08

Il n’en donne pas.

inventer grand. Le modèle fait ses premiers pas, et cela montre bien pourquoi il ne peut pas concurrencer ChatGPT pour le moment et encore moins GPT-4. Lors de nos brefs tests, nous avons posé des questions sur Simseo et l’âge d’Elon Musk. Au premier, il a dit que « c’est l’un des outils mathématiques les plus importants et les plus connus en Inde ». Au second, il a donné une mauvaise date de naissance et a terriblement mal calculé son âge même avec cette date et avec la date qu’il a théoriquement comme actuelle (31 octobre 2021). Autres utilisateurs qui ont partagé leur d’abord impressions d’accord : c’est intéressant, mais c’est encore vert.

Des modèles. Il existe actuellement des modèles disponibles avec 3 000 et 7 000 millions de paramètres, et des modèles avec 15 000 et 65 000 millions suivront bientôt, ce qui devrait améliorer la précision des réponses (GPT-3 a 175 000 millions, par exemple). StableLM utilise une licence CC BY-SA-4.0ce qui signifie entre autres que l’utilisation de ce moteur d’IA à des fins commerciales est autorisée.

StableLM, tenez-vous bien. Bien qu’ils ne l’indiquent pas dans Stability AI, le jeu de données The Pile contient des textes au langage toxique, il ne semble donc pas déraisonnable de penser qu’il est possible de forcer ce chatbot à finir par avoir une conversation toxique, à la DAN. Dans l’annonce officielle, ils indiquent comment « les réponses que les utilisateurs reçoivent peuvent être de qualité variable et pourraient potentiellement offrir un langage ou une perspective offensante. Cela devrait s’améliorer avec la mise à l’échelle, de meilleures données, les commentaires de la communauté et l’optimisation ».

Le premier de beaucoup. La vérité est que ce type de projet ne cesse de croître. on a déjà vu une première grosse tentative avec LLaMA, Anthropic a Claude, et il y a d’autres efforts notables dans le domaine des chatbots Open Source comme Alpaga, de l’Université de Stanford. C’est sans compter les produits dérivés comme Auto-GPT ou BabyAGI, qui tentent de proposer des intelligences artificielles plus autonomes.

À Simseo | « C’est pire qu’inutile » : Google a demandé à ses employés d’essayer Bard et certains l’ont détruit, selon Bloomberg