OpenAI gagne du terrain face à Google et Anthropic avec un petit modèle
OpenAI a commencé à déployer auprès des utilisateurs de ChatGPT et de l'API (interface de programmation d'application) un nouveau produit appelé GPT-4o mini. Nous parlons d'un petit modèle de langage doté d'une plus grande intelligence textuelle, d'un raisonnement multimodal et de frais d'utilisation réduits pour les développeurs. De même, il est présenté comme le remplaçant du GPT-3.5 Turbo.
Le concept des petits modèles n’est pas nouveau. Par exemple, Google propose Gemini 1.5 Flash et Anthropic Claude 3 Haiku. Ces variantes, comme celle annoncée aujourd'hui par OpenAI, sont non seulement plus légères, plus rapides et plus efficaces, mais elles sont également moins chères à utiliser que les modèles phares plus puissants et plus chers. Dans ce dernier groupe on retrouve GPT-4o, Gemini 1.5 Pro et Claude 3 Opus.
Une proposition qui vise la rentabilité sans laisser de côté la capacité
Les modèles de langage publiés par la société dirigée par Sam Altman au cours des dernières années ne se limitent pas à ChatGPT. Ce sont également des éléments clés de de nombreuses applications qui profitent de leurs capacités. Or, l’usage professionnel des modèles à ce niveau n’est pas gratuit. Les développeurs paient pour des pools de jetons, les frais sont donc un aspect très important.
Puisqu’il n’y a pas d’acteur dominant unique et que la concurrence dans le domaine de l’IA est devenue féroce, les entreprises tentent de proposer de meilleures propositions aux développeurs. Nous l'avons déjà vu il y a quelques mois lorsque GPT-4o est arrivé avec des taux d'utilisation beaucoup moins chers que GPT-4 Turbo avec une longueur de contexte identique, mais avec tous les avantages dont se vantait le nouveau modèle.
Aujourd’hui, OpenAI a récidivé. GPT-4o mini est au prix de 15 cents par million de jetons d'entrée et 60 centimes par million de jetons de sortie. Pour faire une comparaison. GPT-4o coûte 5 $ par million de jetons entrants et 15 $ par million de jetons sortants. Dans tous les cas, nous parlons d'une fenêtre contextuelle de 128 Ko.
Et nous mentionnons la fenêtre contextuelle car elle est également pertinente. Eh bien, c'est la quantité d'informations mesurée en jetons que le modèle peut prendre en compte immédiatement pour générer une réponse. A noter qu'il existe d'autres modèles sur le marché qui ont une fenêtre contextuelle plus grande que celles d'OpenAI. La famille Claude 3, par exemple, possède une fenêtre contextuelle de 200 Ko.
Dans tous les cas, les développeurs ont le choix entre plus d’options, tant à l’intérieur qu’à l’extérieur d’OpenAI. GPT-4o mini, selon l'entreprise, est idéal pour les applications qui se connectent à plusieurs API, doivent absorber une grande quantité de code ou interagir avec les clients via répond rapidement. Nous pouvons citer les chatbots de service client alimentés par l’IA comme scénario d’utilisation réel.
À un niveau légèrement plus technique, GPT-4o mini arrive désormais avec la prise en charge du texte et de la vision dans l'API. À l’avenir, promettent-ils, il sera compatible avec les entrées et sorties de texte, d’image, vidéo et audio. Voyons voir, il s'agit d'un avantage notable par rapport à GPT-3.5 Turbo, qui était non seulement plus cher, mais était également limité à la saisie et à la sortie de texte uniquement.
Le nouveau petit modèle a obtenu un score de 82 % sur la mesure de la compréhension massive du langage multitâche (MMLU). GPT-3.5 a obtenu 70 %, GPT-4o 88,7 %, Claude 3 Haiku 75,2 %, Gemini 1.5 Flash 78,9 %. Google Gemini Ultra, de son côté, arrive en tête du classement, avec un score de 90% à ce test de référence.
Les utilisateurs de ChatGPT disposant de comptes Free, Plus et Team pourront également bénéficier de tous les avantages de GPT-4o mini. Le nouveau modèle sera disponible pour tous à partir d’aujourd’hui. Ceux qui possèdent des comptes professionnels devront cependant attendre encore un peu. GPT-4o mini commencera son déploiement dans ce cas la semaine prochaine.
Images | OpenAI | Capture d'écran
À Simseo | L’Union européenne est exclue des prochains grands modèles d’IA de Meta. La raison : la réglementation