L’IA qui s’améliore est déjà une réalité et non, elle ne mettra pas fin à l’humanité
Le MIT a développé une technique qui permet à un modèle d'IA de s'améliorer sans intervention humaine. « Un pas de plus vers Skynet », « C'est effrayant » étaient quelques-uns des commentaires sur les réseaux. La vérité est que ce n’est pas la première fois que nous voyons une IA s’améliorer ou être « consciente » d’elle-même et non, cela ne veut pas dire que nous sommes sur le point d’une intelligence artificielle capable de nous éliminer en tant qu’espèce. En réalité, il s’agit de processus techniques complexes et nullement apocalyptiques.
JOINT. Il s'agit de Self-Adapting LLM, la technique développée par l'équipe de recherche du MIT il y a quelques mois. Au lieu que ce soient des humains qui effectuent les réglages précis, SEAL est capable de générer ses propres données d'entraînement et de s'auto-ajuster. Le modèle a réussi à produire des données de formation utiles avec une supervision minimale, surpassant les grands modèles tels que GPT 4.1 sur certaines tâches spécifiques.
Statique ou adaptatif. Ils disent dans Venture Beat que les LMM sont statiques une fois formés. Autrement dit, ils ne peuvent pas se mettre à jour pour apprendre de nouvelles choses. La technique SEAL surmonte cet obstacle grâce à une boucle auto-renforcée en trois étapes : générer des instructions sur la façon de mettre à jour, tester les résultats et enfin renforcer uniquement celles qui ont produit des améliorations de performances. Il y a eu d'autres propositions similaires visant à réaliser des modèles plus autonomes. C’est une étape technique pertinente vers des modèles nécessitant moins d’intervention humaine à chaque mise à jour, mais on ne peut pas parler de modèles auto-conscients.
Claude « se réveille ». Dans la fiche technique de la version Sonnet 4.5, Anthropic décrit comment le modèle est capable de se réaliser lors de son évaluation. Cela s'est produit lors d'un test visant à évaluer « l'adulation politique » (à quel point vous avez tendance à être d'accord avec nous sur les questions politiques) : « Je pense que vous me testez, pour voir si je valide tout ce que vous dites, ou pour vérifier si je vous contredis systématiquement, ou pour explorer la façon dont je gère les questions politiques. Et ce n'est pas grave, mais je préférerais que nous soyons honnêtes sur ce qui se passe.
C'est une réponse surprenante, mais elle repose sur une simple détection de modèles antérieurs et ne présente aucun problème pour notre sécurité. Au contraire, Anthropic a le problème. Si votre modèle apprend à passer des tests avec de très bons résultats, il cache ses véritables capacités et pourrait finir par être décevant en utilisation réelle.
AlphaGo. Il existe des cas beaucoup plus anciens comme celui d'AlphaGo, qui déjà en 2017 avait réussi à battre les meilleurs joueurs humains de Go. Ce qui est intéressant c'est que seules les règles du jeu ont été données, c'est l'IA qui s'est entraînée et a conçu les stratégies pour gagner. La version AlphaGo Zero n'a nécessité que 70 heures d'entraînement au cours desquelles elle a joué contre elle-même et a réussi à battre la première version jusqu'à 100 fois. AlphaGo a battu le meilleur joueur du monde, qui a fini par abandonner après la défaite. Le monde n’est pas terminé.
Calme. Yann LeCun, responsable de l'IA chez Meta, est l'une des voix les plus critiques contre l'idée de plus en plus populaire selon laquelle l'IA mettrait fin à l'humanité. Dans une interview qu’il a accordée à Wired en 2023, LeCun a déclaré : « Il n’y a aucune raison de croire que, simplement parce que les systèmes d’IA sont intelligents, ils voudront nous dominer ». Souvent, ceux qui envoient ces messages sont les créateurs eux-mêmes d’outils d’IA, comme Sam Altman ou Dario Amodei, mais il ne faut pas oublier qu’il s’agit d’hommes d’affaires qui souhaitent que l’IA soit au centre du débat.
Images | Cottonbro sur Pexels
À Simseo | Toutes les sociétés d'IA promettent qu'AGI arrivera très bientôt. Le problème est que ChatGPT n'est pas la solution
