De quoi s’agit-il et en quoi est-il différent du GPT-4 normal ?
On vous explique qu’est-ce que GPT-4 Turbo exactement, un nouveau modèle de GPT-4 publié par OpenAI. Après le GPT-4 de base et le lancement du GPT-4 à 32K, vient maintenant ce nouveau modèle qui a une longueur de contexte de 128K, qui donne une longueur d’avance à cette intelligence artificielle.
Afin de vous expliquer cela, commençons par essayer de clarifier ce que signifie exactement avoir une longueur de contexte de 128 Ko. Une fois que vous savez cela, nous pourrons vous expliquer les implications et les principales différences de ce nouveau modèle pour les utilisateurs payants avec les autres versions.
Qu’est-ce que GPT-4 Turbo 128K
GPT-4 Turbo est une version améliorée du GPT-4 de base standard. La base de sa technologie est la même, c’est toujours la même intelligence artificielle que l’on retrouve dans Bing Chat ou dans d’autres solutions GPT-4 gratuites. Il a été formé de la même manière et propose les mêmes fonctions.
La différence réside dans le nombre qui vient après son nom, dans ce cas 128K. Ceci mesure la quantité de texte qu’il est capable de prendre en compte lorsque vous écrivez une demande avec une invite.
Allez, bref, vous pouvez écrire des invites beaucoup plus longues, car cela peut prendre en compte beaucoup plus de contexte que les autres versions. Cependant, la façon dont il traite ces invites et le contenu de votre texte est la même, puisqu’il s’agit toujours de GPT-4.
Si vous êtes un utilisateur moyen de l’intelligence artificielle et que vous vous connectez simplement de temps en temps pour demander des choses spécifiques ou faire des demandes courantes, vous ne trouverez peut-être aucune différence entre ce modèle et le précédent. Si vous faites une invite d’un ou deux paragraphes, vous ne trouverez pas de différences, ce sera toujours le même résultat.
La différence est dans le nombre de caractères que vous pouvez saisir à l’invite. Ainsi, si vous avez besoin de faire des requêtes plus longues et plus complexes en GPT, alors vous constaterez que cette nouvelle version peut vous en apporter un peu plus.
Différences par rapport aux versions précédentes
La première chose que nous devons comprendre est que la longueur du texte que GPT est capable d’interpréter est mesurée par des jetons, et chaque jeton peut être équivalent à un mot ou une phrase. Que cela soit équivalent à l’un ou à l’autre dépend de la structure de votre phrase, mais le nombre de jetons pris en charge par GPT correspond à la longueur de la phrase ou de l’invite que vous y écrivez.
Ceci est important car plus la demande que vous faites dans l’invite est longue, élaborée et détaillée, plus le résultat sera raffiné. Vous l’avez donc compris, demander à un musicien une chanson rock n’est pas la même chose que demander à un musicien une chanson rock progressif mélodique et sensible. Dans cette comparaison, dans le deuxième cas, nous avons demandé plus de détails, et la même chose se produit avec des invites beaucoup plus longues.
Pour vous donner une idée, 1 000 jetons représentent environ 750 mots approximativement, et ce sont les mots que l’IA est capable de lire et de prendre en compte lorsque vous écrivez une invite. GPT 3.5 a une longueur de contexte de 4 096 jetonsqui est la version qui utilise le ChatGPT gratuit, et cela fait référence au nombre de mots avec lesquels vous pouvez composer l’invite.
Quant au GPT-4 Turbo, on pourrait aussi l’appeler GPT-4 128K, puisqu’il s’agit de sa fonctionnalité la plus importante. Et ce numéro signifie que prend en charge plus de 128 000 jetons lors de la rédaction de vos invites. Cela signifie que vous pouvez utiliser des invites beaucoup plus longues, ce qui leur permet d’être plus élaborées, plus complexes, avec plus de données à prendre en compte et avec une plus grande structure.
C’est vraiment fou, puisque vous pourrez utiliser plusieurs milliers de mots lors de la génération de votre texte. Et cela donne aux développeurs plus de latitude pour formuler leurs demandes.
Une autre différence est que GPT-4 Turbo ne peut être utilisé qu’au niveau API. Cela signifie qu’il s’adresse aux développeurs, qui pourront associer cette technologie dans leurs applications. S’ils paient pour le service, ils pourront envoyer des requêtes beaucoup plus longues à ce nouveau GPT-4 et obtenir de meilleurs résultats.
Et enfin, l’autre grande différence est que GPT-4 Turbo a des données beaucoup plus à jourpuisqu’il a accès aux informations qui se trouvaient sur Internet jusqu’en avril 2023. Dans la version précédente, les données atteignaient jusqu’en septembre 2021.
Image de couverture | Levart_Photographe