GPT-5: L'IA vient de se produire?
OpenAI affirme que son nouveau modèle phare, GPT-5, marque « une étape significative sur le chemin de l'AGI » – c'est-à-dire l'intelligence générale artificielle que les patrons de l'IA et les experts autoproclamés prétendent souvent au coin de la rue.
Selon la propre définition d'Openai, AGI serait « un système hautement autonome qui surpasse les humains à un travail le plus économiquement précieux ». Mis à part si c'est quelque chose que l'humanité devrait rechercher, les arguments du PDG d'Openai, Sam Altman, pour le GPT-5 étant une « étape significative » dans cette direction, semblent remarquablement peu spectaculaires.
Il affirme que le GPT-5 est meilleur pour écrire du code informatique que ses prédécesseurs. On dit qu'il « hallucine » un peu moins et est un peu meilleur pour suivre les instructions, en particulier lorsqu'ils nécessitent de suivre plusieurs étapes et d'utiliser d'autres logiciels. Le modèle est également apparemment plus sûr et moins «sycophantique», car il ne trompera pas l'utilisateur ni ne fournira des informations potentiellement nocives juste pour leur plaire.
Altman dit que « GPT-5 est la première fois que cela ressemble vraiment à parler à un expert dans n'importe quel sujet, comme un expert au niveau du doctorat. » Pourtant, il n'a toujours aucune idée de savoir si quelque chose qu'il dit est exact, comme vous pouvez le voir dans sa tentative ci-dessous pour dessiner une carte de l'Amérique du Nord.
Il ne peut pas non plus apprendre de sa propre expérience, ou atteindre une précision de plus de 42% sur une référence difficile comme «le dernier examen de l'humanité», qui contient des questions difficiles sur toutes sortes de sujets scientifiques (et autres). Ceci est légèrement inférieur aux 44% que Grok 4, le modèle récemment publié par le XAI d'Elon Musk, aurait réalisé.
La principale innovation technique derrière GPT-5 semble être l'introduction d'un «routeur». Cela décide quel modèle de GPT à déléguer lorsqu'on lui a posé une question, se demandant essentiellement combien d'efforts pour investir dans l'informatique de ses réponses (puis s'améliorant au fil du temps en apprenant des commentaires sur ses choix précédents).
Les options de délégation incluent les principaux modèles de GPT précédents et également un nouveau modèle « Raisonnement plus profond » appelé GPT-5 Thinking. On ne sait pas ce qu'est réellement ce nouveau modèle. OpenAI ne dit pas qu'il est soutenu par de nouveaux algorithmes ou formé sur de nouvelles données (car toutes les données disponibles étaient déjà à peu près utilisées).
On pourrait donc spéculer que ce modèle n'est vraiment qu'une autre façon de contrôler les modèles existants avec des requêtes répétées et de les pousser à travailler plus dur jusqu'à ce qu'elle produise de meilleurs résultats.
Ce que sont les LLM
C'était en 2017 que les chercheurs de Google ont découvert qu'un nouveau type d'architecture d'IA était capable de capturer des modèles extrêmement complexes dans de longues séquences de mots qui sous-tendent la structure du langage humain.
En formant ces modèles dits de langue importants (LLM) sur de grandes quantités de texte, ils pourraient répondre aux invites d'un utilisateur en cartographiant une séquence de mots à sa continuation la plus probable conformément aux modèles présents dans l'ensemble de données. Cette approche pour imiter l'intelligence humaine est devenue de mieux en mieux car les LLM ont été formées sur des quantités de données de plus en plus importantes – en fonction des systèmes comme Chatgpt.
En fin de compte, ces modèles codent pour une gigantesque tableau des stimuli et des réponses. Une invite utilisateur est le stimulus, et le modèle pourrait tout aussi bien le rechercher dans un tableau pour déterminer la meilleure réponse. Compte tenu de la simplicité de cette idée, il est étonnant que les LLM aient éclipsé les capacités de nombreux autres systèmes d'IA, sinon en termes de précision et de fiabilité, certainement en termes de flexibilité et d'utilisation.
Le jury peut encore être sur la question de savoir si ces systèmes pourraient jamais être capables d'un véritable raisonnement, ou de comprendre le monde d'une manière similaire à la nôtre, ou de garder une trace de leurs expériences pour affiner correctement leur comportement – tous les ingrédients sans doute nécessaires de l'AGI.
Dans l'intervalle, une industrie des sociétés de logiciels d'IA est apparue qui se concentre sur les LLM à des fins générales pour être plus fiables et prévisibles pour des cas d'utilisation spécifiques. Après avoir étudié comment rédiger les invites les plus efficaces, leur logiciel peut inviter un modèle plusieurs fois ou utiliser de nombreux LLM, ajustant les instructions jusqu'à ce qu'elle obtienne le résultat souhaité. Dans certains cas, ils pourraient « affiner » un LLM avec des modules complémentaires à petite échelle pour les rendre plus efficaces.
Le nouveau routeur d'Openai est dans la même veine, sauf qu'il est intégré à GPT-5. Si cette décision réussit, les ingénieurs des entreprises plus bas dans la chaîne d'approvisionnement de l'IA seront de moins en moins nécessaires. Le GPT-5 serait également moins cher pour les utilisateurs que ses concurrents LLM, car il serait plus utile sans ces embellissements.
Dans le même temps, cela pourrait bien être un aveu que nous avons atteint un point où les LLM ne peuvent pas être améliorées beaucoup plus pour tenir la promesse d'AGI. Si c'est le cas, cela justifiera les scientifiques et les experts de l'industrie qui se disputent depuis un certain temps qu'il ne sera pas possible de surmonter les limites actuelles de l'IA sans aller au-delà des architectures LLM.
Old Wine dans de nouveaux modèles?
Le nouvel accent mis d'Openai sur le routage remonte également au « Meta Reasoning » qui a pris de l'importance dans l'IA dans les années 1990, sur la base de l'idée du « raisonnement sur le raisonnement ». Imaginez, par exemple, vous essayiez de calculer une voie de voyage optimale sur une carte complexe. Le départ dans la bonne direction est facile, mais chaque fois que vous considérez 100 autres alternatives pour le reste de l'itinéraire, vous n'obtiendrez probablement qu'une amélioration de 5% sur votre meilleure option précédente. À chaque moment du voyage, la question est de savoir à quel point cela vaut la peine de faire plus.
Ce type de raisonnement est important pour faire face à des tâches complexes en les décomposant en problèmes plus petits qui peuvent être résolus avec des composants plus spécialisés. C'était le paradigme prédominant dans l'IA jusqu'à ce que l'accent se déplace vers des LLM à usage général.
Il est possible que la libération de GPT-5 marque un changement dans l'évolution de l'IA qui, même si ce n'est pas un retour à cette approche, pourrait inaugurer la fin de la création de modèles toujours plus compliqués dont les processus de pensée sont impossibles à comprendre à quiconque.
Il est difficile de dire si cela pourrait nous mettre sur le chemin vers AGI. Mais cela pourrait créer une opportunité de progresser vers la création d'AIS que nous pouvons contrôler en utilisant des méthodes d'ingénierie rigoureuses. Et cela pourrait nous aider à nous rappeler que la vision originale de l'IA n'était pas seulement de reproduire l'intelligence humaine, mais aussi de mieux la comprendre.
