OpenAI et IA des chercheurs : la révolution de la science
OpenAI redéfinit ses priorités en se concentrant sur un défi technologique inédit : la création d’un «Chercheur en IA», c'est-à-dire un système entièrement automatisé basé sur des agents, capables de résoudre de manière autonome des problèmes complexes et à grande échelle.
L'entreprise de San Francisco considère cet objectif comme son « étoile polaire » pour les années à venir, un point de référence capable d'unifier différentes lignes de recherche, depuis les modèles de raisonnement jusqu'aux agents autonomes, jusqu'aux études sur l'interprétabilité. L’idée est de construire une machine qui ne se contente pas de répondre aux questions, mais qui soit capable de générer de nouvelles connaissances.
Une feuille de route ambitieuse jusqu’en 2028
Le projet n'est pas seulement théorique, mais accompagné d'une feuille de route précise, comme l'a rapporté pour la première fois Le journal Wall Street. D’ici septembre, OpenAI prévoit de développer un « assistant de recherche en IA » autonome, capable de traiter un nombre limité de problèmes scientifiques sans intervention humaine directe.
Ce système représentera la première étape vers une plateforme plus complexe : un système multi-agents entièrement automatisé, qui devrait faire ses débuts d’ici 2028. Selon l’entreprise, ce « chercheur artificiel » sera capable de s’attaquer à des problèmes trop complexes ou trop vastes pour être traités par des humains.
Les applications potentielles sont énormes : des mathématiques et de la physique, avec la génération de nouvelles preuves et conjectures, aux sciences de la vie, comme la biologie et la chimie, sans exclure des domaines comme l'économie et les politiques publiques.
Jakub Pachocki et la vision d'OpenAI
Au centre de cette stratégie se trouve Jakub Pachocki, scientifique en chef d'OpenAI, figure clé dans le développement des modèles les plus avancés de l'entreprise, dont GPT-4 et les modèles de raisonnement introduits en 2024.
Selon Pachocki, nous sommes proches d’un tournant : des systèmes capables de fonctionner de manière cohérente pendant de longues périodes, à l’instar des humains. En perspective, nous pourrions arriver à de véritables laboratoires de recherche entièrement confinés dans des centres de données, dans lesquels l’IA réalise une grande partie du travail scientifique.
Tout en soulignant l'importance du contrôle humain, Pachocki imagine un avenir dans lequel la contribution des machines sera de plus en plus centrale dans les processus de découverte.
Concurrence mondiale en IA
OpenAI ne fonctionne pas de manière isolée. Ces dernières années, il a entraîné l’évolution des modèles linguistiques, influençant les technologies utilisées quotidiennement par des centaines de millions de personnes. Cependant, la concurrence s'est intensifiée.
Des entreprises comme Anthropic et Google DeepMind investissent dans des technologies similaires, avec des objectifs comparables. Demis Hassabis, fondateur de DeepMind, a déclaré à plusieurs reprises que l'objectif est de résoudre les problèmes les plus difficiles du monde, tandis que Dario Amodei, PDG d'Anthropic, a parlé de créer « un pays de génies » au sein d'un centre de données.
Dans ce contexte, les choix stratégiques d’OpenAI prennent un poids décisif non seulement pour l’entreprise, mais pour l’ensemble de l’écosystème technologique mondial.
Codex : le premier pas vers l’autonomie
L'un des outils clés de cette évolution est Codex, un système basé sur des agents capable de générer du code, d'analyser des documents et d'automatiser des tâches complexes.
Sorti en janvier, Codex vous permet d'effectuer des opérations en temps réel sur un ordinateur, de la création de graphiques à la gestion des informations provenant des e-mails et des réseaux sociaux. Selon OpenAI, la plupart de ses ingénieurs utilisent déjà cet outil dans leur travail quotidien.
Pour Pachocki, le Codex représente une version embryonnaire de l’IA des chercheurs : un système encore limité, mais destiné à s’améliorer rapidement.
Vers des systèmes de plus en plus autonomes
Le véritable défi est de créer des systèmes capables de fonctionner pendant de longues périodes sans surveillance humaine. Cela nécessite non seulement davantage de puissance de calcul, mais également des modèles plus sophistiqués.
Le passage du GPT-3 au GPT-4 a déjà montré un progrès significatif en termes de capacité à travailler sur des problèmes complexes sur de plus longues périodes. Les modèles de raisonnement ont encore amélioré ces capacités, permettant à l’IA d’aborder les problèmes étape par étape, de corriger les erreurs et de s’adapter aux situations inattendues.
OpenAI entraîne également ses systèmes à l'aide de tâches complexes, telles que des énigmes mathématiques avancées, pour leur apprendre à gérer de grandes quantités d'informations et à décomposer les problèmes en sous-tâches.
De la théorie à la pratique
L’objectif n’est pas de construire des systèmes qui excellent uniquement dans des contextes théoriques, comme les concours de mathématiques. Selon Pachocki, ces tests servent principalement à démontrer que la technologie fonctionne, avant de l'appliquer au monde réel.
Aujourd'hui, l'accent est mis sur des problèmes concrets, dans le but de transférer les compétences démontrées en codage vers d'autres domaines de connaissances. En particulier, la programmation représente un banc d’essai idéal : si un système peut résoudre des problèmes de code complexes, il pourrait potentiellement s’attaquer à tout type de problème structuré.
Les premiers résultats concrets
Ces derniers mois, OpenAI a connu des résultats significatifs. Des modèles plus avancés, tels que GPT-5, ont été utilisés pour identifier de nouvelles solutions à des problèmes mathématiques non résolus et pour surmonter des obstacles dans des domaines tels que la biologie, la chimie et la physique.
Selon Pachocki, le fait que ces systèmes puissent générer des idées qui prendraient des semaines à des chercheurs humains suggère une accélération imminente de la production de connaissances scientifiques.
Limites et scepticisme
Malgré les progrès, d’importantes limites demeurent. Même les modèles les plus avancés peuvent commettre des erreurs, notamment lorsqu’ils doivent enchaîner plusieurs opérations complexes.
Doug Downey, chercheur àInstitut Allen pour l'IAsouligne que la probabilité d'erreur augmente lorsque les tâches sont divisées en plusieurs phases consécutives. Tout en reconnaissant les progrès réalisés, il appelle à la prudence, soulignant que la mise en place d’un chercheur totalement autonome pourrait prendre plus de temps que prévu.
Risques et sécurité
La perspective de systèmes capables de fonctionner de manière autonome soulève des questions cruciales. Parmi les principaux risques figurent les comportements inattendus, la vulnérabilité aux cyberattaques et les interprétations incorrectes des objectifs assignés.
Pour relever ces défis, OpenAI développe des techniques de surveillance du raisonnement, connues sous le nom de surveillance de la chaîne de penséeg. Ceux-ci vous permettent de retracer les étapes logiques suivies par les modèles lors de l'exécution des tâches, offrant ainsi une plus grande transparence et un meilleur contrôle.
Pouvoir, éthique et gouvernance
L’impact de ces technologies pourrait être énorme. Selon Pachocki, il s’agit d’une forme de pouvoir extrêmement concentrée et sans précédent. À l’avenir, les tâches qui nécessitent aujourd’hui de grandes organisations pourraient être exécutées par de petites équipes soutenues par une IA avancée.
Ce scénario pose des défis importants aux gouvernements et aux institutions, appelés à définir des règles et des limites à l'utilisation de ces technologies. Cependant, le débat reste ouvert et il n’existe pas de consensus mondial sur la manière de réglementer l’intelligence artificielle.
Le rôle des gouvernements
La relation entre l’IA et les gouvernements est complexe. D’un côté, les institutions sont appelées à réguler ; d’un autre côté, ils comptent également parmi les principaux utilisateurs de ces technologies, par exemple dans le secteur militaire.
Les tensions récentes entre les sociétés d’IA et les institutions gouvernementales démontrent à quel point il est difficile d’établir des limites claires. Pathocki reconnaît la responsabilité personnelle des développeurs, mais souligne qu'une solution efficace nécessitera l'implication des décideurs politiques et des acteurs mondiaux.
L'avenir de l'intelligence artificielle
OpenAI continue de poursuivre sa mission : garantir que les technologies avancées d’intelligence artificielle profitent à l’ensemble de l’humanité. Cependant, le concept d’AGI (intelligence générale artificielle) reste encore nuancé.
Selon Pachocki, d’ici 2028, il n’y aura pas de systèmes aussi intelligents que les humains dans tous les domaines. Mais cela ne constitue pas nécessairement une limite : même des systèmes partiellement intelligents pourraient avoir un impact transformateur sur l’économie, la science et la société.
