GPT-4.5 C'est la démonstration que l'utilisation de plus de GPU et plus de données n'est plus utile

GPT-4.5 C’est la démonstration que l’utilisation de plus de GPU et plus de données n’est plus utile

Au cours des deux dernières années, nous avons vu comment les entreprises qui développent des modèles d’IA n’ont pas cessé de montrer la voracité presque sans limites. Ils parient sur l’escalade et l’utilisation de plus de données et plus de GPU pour améliorer ces modèles. Cependant, il y a eu une surprise: il s’avère que cette stratégie ne fonctionne plus.

GPT-4.5 sera le dernier de votre lignée. Nous nous sommes toujours associés à Chatgpt aux modèles traditionnels « qui ne raisonnent pas », bien que ces derniers temps, il donne également accès aux modes de raisonnement. Malgré cela, sa base actuelle est GPT-4O, et ce modèle aura un dernier successeur. Ce sera GPT-4.5, qui ne sera pas renouvelé. C’est précisément la chose intéressante.

L’escalade ne sert plus beaucoup. Comme le soulignent les experts tels que Gary Marcus, GPT-4.5, semble être la constatation que dépenser de plus en plus d’argent pour grimper, utiliser de plus en plus de GPU et de données pour former des modèles n’a plus de sens. L’espoir d’Openai était Orion, qui visait à être GPT-5, mais ce n’est pas le cas: c’est (probablement) GPT-4.5.

Choquer contre un mur. Le saut de performance et de capacité n’a jamais été attendu, ce qui a entraîné la décélération de l’IA. Du moins, de l’IA générative qui ne raisonne pas. Cela semble bien sûr être entré en collision avec un mur et ne peut plus s’améliorer. Nous sommes, face à un changement de concentration totale sur les modèles de raisonnement.

Ça arrive à tous. GPT-4.5 est l’acceptation de cette nouvelle réalité par Openai, mais il existe de nombreuses autres sociétés d’IA qui sont dans la même situation. Les nouvelles versions des modèles « qui ne raisonnent pas » n’arrivent pas seulement. Grok 3 n’arrive pas et Xai reste en retard, mais nous n’avons pas vu le successeur de Claude 3.5 et nous ne savons pas ce qui fonctionne anthropique. Google vient de présenter Gemini 2.0, mais le saut en capacités en ce qui concerne les Gemini 1.5 n’est pas spectaculaire, du moins si nous ne prenons pas en compte sa version de raisonnement, Flash Thinking.

Capture d'écran 2025 02 13 à 12 19 23
Capture d'écran 2025 02 13 à 12 19 23

Je te l’ai dit. Des experts tels que Yann LeCun, responsable de Meta, ont longtemps averti que « plus de données et plus de stratégie GPUS avaient une date d’expiration. Ilya Sutskever, co -leaflet Openai et maintenant avec sa propre startup en IA, a également clairement indiqué il y a des mois. Pour lui, la formation massive d’un modèle d’IA utilisant un grand ensemble de données sans étiquetage afin que le modèle détecte les modèles et les structures que lui-même, et même en essayant de le faire de plus en plus, n’a pas non plus offert trop d’avantages.

Alors, pourquoi dépenser autant d’argent? Si les modèles traditionnels ne peuvent plus progresser avec cette escalade, la question est évidente: pourquoi les entreprises investissent-elles des milliards de dollars dans des centres de données? La réponse est diversifiée. Premièrement, la montée est toujours utile pour améliorer les modèles et les faire se comporter mieux et commenter moins d’erreurs.

Les centres de données ont du sens. Mais c’est aussi la section de l’inférence: cette gigantesque infrastructure dans laquelle les entreprises investissent ne sont pas tant pour former des modèles avec l’approche traditionnelle, mais de sorte que des centaines ou même des milliards de personnes finissent par utiliser l’IA dans leur journée. C’est le pari actuel.

Qui vivent les modèles qui raisonnent. La décélération de l’IA qui prend du temps à parler n’est pas « de toute l’IA », mais comme nous le disons des modèles génératifs traditionnels qui n’ont pas raison. Les nouveaux modèles tels que O1, Deepseek R1 ou Gemini 2.0 Flash Thinking sont clairement la tendance: de plus en plus précise et avec des réponses qui ont de plus en plus de qualité et nous aident vraiment à leur faire confiance. Faire travailler pour nous presque « aveugle ».

Nous avons des avancées dans l’IA pendant un certain temps. L’IA a encore un long chemin à parcourir. Le fait que l’approche d’escalade (plus de GPU, plus de données, c’est la guerre) n’a pas beaucoup de sens, car il existe d’autres chemins. Beaucoup. Et celui des modèles de raisonnement n’est qu’un d’entre eux.

Image | Amazone

Dans Simseo | Openai veut être le nouveau Google avec GPT-5: vous demanderez et l’IA décidera déjà comment il vous répond