La réalité est que nous sommes confrontés à une impasse
Il y a une course entre les principales sociétés d’IA pour construire une AGI ou intelligence artificielle générale, celle qui surpasse l’humain dans tous les domaines de la connaissance. Sam Altman fait la promotion d'AGI depuis longtemps, et il n'est pas le seul. Mark Zuckerberg a dépensé un million pour une équipe pour le créer, Dario Amodei pense qu'il arrivera très bientôt et Elon Musk dit que Grok 5 pourrait atteindre l'AGI. Et si tout cela n'était qu'un gros mensonge ?
Langage et intelligence. Ce n'est pas pareil. OpenAI, Meta, Anthropic… toutes ces entreprises ont un point commun : leur chemin vers l'AGI est le LLM ou grands modèles de langage. Ils disent dans The Verge que la nuance, et ce n’est pas n’importe quelle nuance, c’est que le langage et l’intelligence sont deux choses très différentes. Des décennies de recherche ont montré que le langage est un outil de communication et non de pensée. En d’autres termes, maîtriser la langue n’équivaut pas à plus d’intelligence, de même que ne pas la maîtriser ne signifie pas cesser d’être intelligent.
Modèles de langage. ChatGPT, Claude, Gemini… sont des outils composés de centaines, voire de milliards de paramètres, entraînés sur d'énormes corpus textuels. Leur complexité technique est indéniable, mais il s’agit toujours de systèmes qui prédisent le prochain mot sur la base de corrélations statistiques. Son noyau est le langage, et non les idées ou la pensée abstraite au sens humain du terme.
Atteindre l'AGI. Arriver à AGI avec un modèle de langage est une impasse. C’est ce qu’a récemment déclaré Yann LeCun, considéré comme l’un des parrains de l’IA moderne et, jusqu’à récemment, responsable de l’IA chez Meta. Selon LeCun, la voie à suivre pour atteindre l’AGI n’est pas le LLM, mais le LWM ou les modèles mondiaux. Ces modèles apprennent de l’environnement et peuvent imaginer des scénarios, tout comme le font les humains.
Il . Si les modèles linguistiques ne sont pas la solution, pourquoi les entreprises d’IA continuent-elles à dire qu’elles sont sur le point d’atteindre l’AGI ? Parce qu'ils en ont besoin. Son principe est qu’avec plus de puissance de calcul (plus de puces et plus de centres de données), ses IA deviendront plus intelligentes, donc alimenter le battage médiatique est sa manière de justifier la poursuite des investissements absurdes pour faire évoluer l’IA.
Ralentissement. Au début, les progrès évolutifs des chatbots IA étaient palpables ; Les premières versions de ChatGPT nous ont époustouflés. La réalité actuelle est que l’IA générative est entrée dans une phase de continuité ou de décélération. Il y a des améliorations, mais elles ne sont plus aussi notables ni révolutionnaires. La solution est de générer des attentes : avec les agents IA et, bien sûr, avec AGI.
Cela signifie-t-il que l’AGI ne sera jamais atteint ? Pas nécessairement, mais cela prendra plus que des modèles linguistiques et, surtout, du temps. Selon Andrej Karpathy, co-fondateur d'OpenAI, l'AGI prendra encore au moins une décennie.
Images | Meo, Pexels (édité)
À Simseo | Quelqu’un a jeté un œil à la bulle Internet et comparé ses données à l’IA. Et ce n'est pas optimiste
