La grande révolution du Codex GPT-5.3 et de Claude Opus 4.6 n’est pas qu’ils soient plus intelligents. C'est qu'ils peuvent s'améliorer
La semaine dernière, OpenAI et Anthropic ont lancé simultanément leurs nouveaux modèles d'IA spécialisés en programmation : GPT-5.3 Codex et Claude Opus 4.6. Au-delà des améliorations qu’ils représentent en termes de performances ou de vitesse, qui sont vraiment étonnantes, les deux sociétés ont également déclaré quelque chose qui change complètement les règles du jeu : les modèles d’IA participent activement à leur propre développement. Autrement dit : l’IA s’améliore.
Pourquoi ce changement est important. Les outils d’intelligence artificielle générative atteignent un haut niveau d’efficacité et de précision, passant en quelques années du statut de collaborateur pour des tâches simples et spécifiques à celui de pouvoir s’impliquer dans une bonne partie d’un développement. Selon la documentation technique d'OpenAI, le Codex GPT-5.3 « a joué un rôle déterminant dans sa propre création », étant utilisé pour déboguer sa formation, gérer son déploiement et diagnostiquer les résultats de l'évaluation.
D'autre part, il convient de souligner les propos de Dario Amodei, PDG d'Anthropic, qui déclare dans son blog personnel que l'IA écrit « une grande partie du code » dans son entreprise et que la boucle de rétroaction entre la génération actuelle et la suivante « prend de l'ampleur de mois en mois ».
En détails. En pratique, cela signifie que chaque nouvelle génération d’IA contribue à créer la suivante, plus performante, qui à son tour créera une version encore meilleure. Les chercheurs appellent cela « l’explosion du renseignement », et ceux qui développent ces systèmes pensent que le processus a déjà commencé. Amodei a déclaré publiquement que nous pourrions être « dans seulement 1 ou 2 ans avant le point où la génération actuelle d’IA construira de manière autonome la suivante ».
La plupart d’entre nous utilisent des modèles de langage gratuits, accessibles à tous et moyennement capables d’effectuer certaines tâches. Mais ils sont également très limités et ne reflètent pas bien ce dont un modèle d’IA de pointe est capable aujourd’hui. Lors d'une brève session avec 5.3-Codex, j'ai pu tirer la même conclusion, car les outils d'IA que les grandes entreprises technologiques utilisent dans leur développement ne ressemblent en rien aux outils les plus commerciaux dont nous disposons gratuitement en termes de capacités.
L’approche code d’abord. Une spécialisation initiale en programmation a plus de sens qu’on ne le pense. Et l'idée d'entreprises comme OpenAI, Anthropic ou Google selon laquelle leurs systèmes étaient exceptionnels en écrivant du code avant toute autre chose est liée au fait que développer l'IA nécessite d'énormes quantités de code. Et si l’IA peut écrire ce code, elle peut aider à construire sa propre évolution. « Rendre l'IA excellente en programmation a été la stratégie qui a débloqué tout le reste. C'est pourquoi ils l'ont fait en premier », a déclaré Matt Shumer, PDG d'OthersideAI, dans une publication qui a fait parler d'elle sur les réseaux sociaux ces jours-ci.
Entre les lignes. Les nouveaux modèles ne se contentent pas d'écrire du code : ils prennent des décisions, itèrent sur leur propre travail, testent les applications comme le ferait un développeur humain et affinent le résultat jusqu'à ce qu'ils soient satisfaits. « Je dis à l'IA ce que je veux construire. Elle écrit des dizaines de milliers de lignes de code. Ensuite, elle ouvre l'application, clique sur les boutons, essaie les fonctionnalités. Si quelque chose ne lui plaît pas, elle revient en arrière et la modifie d'elle-même. Ce n'est que lorsqu'elle décide qu'elle répond à ses propres normes qu'elle me revient », a déclaré Shumer, décrivant son expérience avec le Codex GPT-5.3.

Ce qui change avec l'auto-référence. Jusqu'à présent, chaque amélioration dépendait des équipes humaines qui passaient des mois à former les modèles, à ajuster les paramètres et à corriger les erreurs. Désormais, une partie de ce travail est effectuée par l’IA elle-même, accélérant ainsi les cycles de développement. Comme le partage Shumer et en se référant aux données du METR, une organisation qui mesure la capacité de ces systèmes à accomplir des tâches complexes de manière autonome, le temps pendant lequel une IA peut fonctionner sans intervention humaine double environ tous les sept mois, et il existe déjà des indications récentes selon lesquelles cette période pourrait être réduite à quatre.
Et maintenant quoi. Si cette tendance se poursuit, nous pourrions voir d’ici 2027 des systèmes capables de travailler de manière autonome pendant des semaines sur des projets entiers. Amodei a parlé de modèles « considérablement plus intelligents que presque tous les humains dans presque toutes les tâches » d'ici 2026 ou 2027. Ce ne sont pas des prédictions lointaines, puisque l'infrastructure technique permettant à l'IA de contribuer à sa propre amélioration est déjà opérationnelle. Et ce sont ces capacités qui bouleversent véritablement l’industrie technologique.
Image de couverture | OpenAI et Anthropique
À Simseo | Nous avons un problème avec l'IA. Ceux qui étaient les plus enthousiastes au début commencent à en avoir assez.
