OpenAI embedding models

OpenAI : découvrons l’évolution des modèles d’embarquement et l’actualité des API

OUstyloAI est prêt à lancer une nouvelle génération de modèles d’intégration, les nouveaux modèles GPT-4 Turbo et de modération, de nouveaux outils de gestion de l’utilisation des API et bientôt une baisse des prix liée au GPT-3.5 Turbo. De plus, par défaut, les données envoyées à l’API OpenAI ils ne seront pas utilisés pour former ou améliorer les modèles OpenAI.

Index des sujets :

Nouveaux modèles d’intégration à des prix inférieurs

OpenAI introduit deux nouveaux modèles d’intégration : un modèle d’intégration de texte à 3 petites dimensions plus petit et extrêmement efficace, et un modèle d’intégration de texte à 3 larges plus grand et plus puissant. Une intégration est une séquence de nombres qui représente des concepts au sein d’un contenu tel que le langage naturel ou le code. Les intégrations permettent aux modèles d’apprentissage automatique et à d’autres algorithmes de comprendre plus facilement les relations entre les contenus, leur permettant ainsi d’effectuer des tâches telles que le regroupement ou la récupération. Ils alimentent des applications telles que la récupération de connaissances dans ChatGPT et l’API Assistants, ainsi que de nombreux outils de développement de génération améliorée par récupération (RAG).

Un nouveau modèle d’intégration de petit texte

Intégration de texte-3-small est le nouveau modèle d’intégration très efficace et représente une amélioration notable par rapport à son prédécesseur, le modèle text-embedding-ada-002 sorti en décembre 2022. En comparant text-embedding-ada-002 avec text-embedding-3-small, le score moyen sur un benchmark couramment utilisé pour la récupération multilingue (MIRACL) augmenté de 31,4% à 44%tandis que le score moyen sur un benchmark couramment utilisé pour les tâches d’anglais (MTEB) est passé de 61 % à 62,3 %.

Le text-embedding-3-small est également nettement plus efficace que le modèle text-embedding-ada-002 de la génération précédente. Donc, le prix de text-embedding-3-small a été réduit de 5 fois par rapport à text-embedding-ada-002, passant d’un prix par jeton de 1 000 $ de 0,0001 $ à 0,00002 $. Nous ne déprécions pas text-embedding-ada-002. Ainsi, même si nous recommandons le modèle le plus récent, les clients sont libres de continuer à utiliser le modèle de la génération précédente.

Un nouveau modèle d’intégration de texte volumineux : text-embedding-3-large

Intégration de texte-3-large est le nouveau modèle d’intégration le plus grand de la nouvelle génération et crée des intégrations comportant jusqu’à 3 072 dimensions. En comparant text-embedding-ada-002 avec text-embedding-3-large : sur MIRACL, le score moyen est passé de 31,4% à 54,9%, tandis que sur MTEB, le score moyen est passé de 61% à 64,6%. Text-embedding-3-large sera au prix de 0,00013 $/1 000 jetons.

Prise en charge native du raccourcissement des intégrations

L’utilisation d’intégrations plus importantes, telles que leur stockage dans un magasin de vecteurs pour récupération, coûte généralement plus cher et consomme plus de calculs, de mémoire et de stockage que l’utilisation d’intégrations plus petites. Les deux nouveaux modèles d’intégration ont été formés avec une technique qui permet aux développeurs d’équilibrer les performances et le coût de l’utilisation des intégrations. En particulier, le les développeurs peuvent raccourcir les intégrations (c’est-à-dire supprimer certains nombres de la fin de la séquence) sans que l’intégration perde ses propriétés de représentation conceptuelle en passant dans le paramètre de taille de l’API. Par exemple, sur MTEB, une intégration text-embedding-3-large peut être raccourcie à une taille de 256 tout en surpassant une intégration text-embedding-ada-002 intégrale avec une taille de 1536. Cela permet une utilisation très flexible.

Par exemple, lors de l’utilisation d’un magasin de données vectorielles qui ne prend en charge que les intégrations jusqu’à 1 024 dimensions, les développeurs peuvent toujours utiliser notre meilleur modèle d’intégration text-embedding-3-large et spécifier une valeur de 1 024 pour le paramètre de dimensions de l’API, ce qui réduira l’intégration de 3072 dimensions, échangeant une certaine précision en échange d’une dimension vectorielle plus petite.

Plus de nouveaux modèles et des prix plus bas

OpenAI sera introduit en février un nouveau modèle GPT-3.5 Turbo, gpt-3.5-turbo-0125, et pour la troisième fois au cours de l’année dernière, réduit les prix de GPT-3.5 Turbo pour aider les clients à évoluer. Les prix d’entrée pour le nouveau modèle sont réduits de 50 % à 0,0005 $/1 000 jetons et les prix de sortie sont réduits de 25 % à 0,0015 $/1 000 jetons. Ce modèle bénéficiera également de diverses améliorations, notamment une plus grande précision dans les réponses dans les formats requis et un correctif pour un bug qui provoquait un problème d’encodage de texte pour les appels de fonction dans des langues autres que l’anglais. Les clients utilisant l’alias de modèle gpt-3.5-turbo seront automatiquement mis à niveau de gpt-3.5-turbo-0613 vers gpt-3.5-turbo-0125 deux semaines après le lancement de ce modèle.

Aperçu Turbo GPT-4 mis à jour

Plus de 70 % des demandes des clients de l’API GPT-4 ont été transférées vers GPT-4 Turbo depuis sa sortie, car les développeurs profitent de sa limite de connaissances mise à jour, de ses fenêtres contextuelles plus grandes de 128 000 et de ses tarifs inférieurs. OpenAI a publié un modèle d’aperçu mis à jour du GPT-4 Turbo, gpt-4-0125-aperçu. Ce modèle accomplit des tâches telles que la génération de code de manière plus complète que le modèle d’aperçu précédent et vise à réduire les cas de « paresse » où le modèle n’a pas accompli une tâche.

Le nouveau modèle inclut également le correctif du bug qui affectait les générations UTF-8 non anglaises. Pour ceux qui souhaitent être automatiquement mis à jour vers les nouvelles versions d’aperçu du GPT-4 Turbo, OpenAI introduit également un nouveau nom de modèle alias gpt-4-turbo-preview, qui pointera toujours vers le dernier modèle d’aperçu du GPT-4. Turbo. Dans les mois à venir, OpenAI prévoit de lancer GPT-4 Turbo avec vision en disponibilité générale

Modèle de modération mis à jour

L’API de modération gratuite permet aux développeurs d’identifier les textes potentiellement dangereux. Dans le cadre des travaux de sécurité en cours, OpenAI publie text-moderation-007, le modèle de modération le plus robuste à ce jour. Les alias text-moderation-latest et text-moderation-stable ont été mis à jour pour y pointer.

De nouvelles façons de comprendre l’utilisation des API et de gérer les clés API

OpenAI déploie deux améliorations de la plate-forme pour donner aux développeurs à la fois une plus grande visibilité sur leur utilisation et un meilleur contrôle sur les clés API. Premièrement, les développeurs peuvent désormais attribuer des autorisations aux clés API à partir de la page Clés API. Par exemple, une clé peut être attribuée en lecture seule pour alimenter un tableau de bord de surveillance interne, ou restreinte pour accéder uniquement à certains points de terminaison.

Deuxièmement, le tableau de bord d’utilisation et la fonctionnalité d’exportation d’utilisation exposent désormais les métriques au niveau de la clé API une fois que vous avez activé le suivi. Cela facilite la visualisation de l’utilisation au niveau par fonctionnalité, équipe, produit ou projet, simplement en ayant des clés API distinctes pour chacun.