« Le plus grand et le plus intelligent »
Peu importe de quel produit technologique nous parlons, car le produit et la manière dont il vous est vendu comptent. Et ici, faire des promesses et générer des attentes est la stratégie classique. Le prochain processeur sera plus puissant, le prochain smartphone prendra de meilleures photos… et bien sûr, le prochain modèle d’IA sera (beaucoup) meilleur. Nous voyons constamment ce message dans le segment de l’IA, mais maintenant il va plus loin.
Anthropique et curieuse fuite. Il y a quelques jours, un groupe de chercheurs en sécurité a détecté 3 000 documents inédits dans une base de données Anthropic accessible. Ils ont inclus une ébauche de l’entrée de blog qui correspondait au lancement théorique de leur prochain modèle d’IA. Ce qui frappe, ce n’est pas tant la fuite elle-même (intentionnelle ou non), mais plutôt ce que révèlent ces documents.
Le mythe va au-delà de la simple évolution. Ou du moins, c’est ce que semble révéler cette ébauche divulguée. Il décrit un modèle appelé Claude Mythos — également appelé Capybara — qui ne serait pas une simple amélioration de Claude Opus, mais serait un niveau au-dessus. Le document indique que ce modèle est « plus grand et plus intelligent que nos modèles Opus, qui étaient jusqu’à présent les plus puissants ».
Anthropic s’inscrit au . Selon cette fuite, les scores du benchmark seraient nettement supérieurs à ceux de l’Opus 4.6 en programmation, raisonnement et cybersécurité. Chez Anthropic, ils ont fini par confirmer l’existence de ce développement et l’ont décrit comme « un changement de niveau » et « le modèle le plus performant que nous ayons créé à ce jour ». Ce n’est pas une phrase trop surprenante, car c’est fondamentalement la même chose qu’ils disent à propos de chaque nouveau modèle qu’ils sortent.
Et même eux ont peur. En fait, ce qui est surprenant dans ce projet, ce n’est pas le message selon lequel c’est mieux, mais les avertissements qui accompagnent cette future présentation. Ainsi, Anthropic décrit Mythos comme « actuellement bien en avance sur tout autre modèle d’IA en termes de capacités de cybersécurité ». En fait, ils préviennent que cela pourrait être le début « d’une vague imminente de modèles capables d’exploiter les vulnérabilités d’une manière qui dépasse de loin les efforts des défenseurs ». En d’autres termes : Mythos pourrait être un outil extraordinaire pour les cyberattaquants. Le plan de lancement actuel consiste à proposer d’abord Mythos aux organisations de cybersécurité pour qu’elles se préparent. Nous verrons si cela donne un avantage, si Mythos répond aux attentes.
OpenAI fait également un pas en avant. Anthropic et OpenAI évoluent en parallèle depuis un certain temps, et maintenant ils le font à nouveau. Chez OpenAI, ils préparent leur nouveau modèle d’IA, nommé « Spud » (« pomme de terre »). On ne sait presque rien de lui au-delà du fait que sa phase de pré-entraînement est terminée. Plus pertinent est que ce modèle apparaît juste au moment où OpenAI a décidé d’être moins OpenAI et plus Anthropic. Ils ont abandonné Sora et réorientent leurs ressources pour regagner du terrain là où ils le perdent. Autrement dit, dans les entreprises.
Mais le calcul n’est pas infini. Ces jours-ci, les utilisateurs des forfaits mensuels de 100 $ et 200 $ de Claude ont commencé à remarquer à quel point ils utilisaient leurs limites et leurs quotas de jetons en moins d’une heure pendant leurs heures de travail. Ce qui se passe, c’est qu’Anthropic forme des modèles plus puissants mais beaucoup plus coûteux à utiliser, ce qui rend difficile leur exploitation. La demande augmente plus rapidement que les améliorations d’efficacité à venir. Ainsi, selon certains analystes, les sociétés d’IA ajustent ces quotas et, dans un sens, font en sorte que leurs modèles se comportent comme s’ils étaient « plus stupides » à économiser. C’est quelque chose que nous avons vu dans le passé.
Adaptation hédonique. Les psychologues appellent adaptation hédonique le phénomène par lequel les humains s’habituent rapidement à n’importe quel niveau d’expérience, bon ou mauvais, et reviennent à leur état émotionnel de départ. Appliqué à l’IA, ce phénomène explique que ce modèle qui nous paraissait miraculeux il y a six mois semble aujourd’hui lent et limité, et ce qui paraissait il y a six mois de la science-fiction est aujourd’hui le minimum que l’on demande aux entreprises. Anthropic et OpenAI n’ont pas inventé le concept, mais ils l’ont intégré dans leurs feuilles de route comme d’autres entreprises technologiques par le passé. Nous l’avons déjà mentionné : ils vendent non seulement ce qu’ils ont aujourd’hui, mais (plus important encore) ce qu’ils auront demain.

Le mythe sera brutal et très coûteux. Le projet d’Anthropic prévient que Mythos sera « très coûteux à gérer et très coûteux pour nos clients ». Cela laisse entrevoir deux possibilités. La première est que seuls les utilisateurs des forfaits Max peuvent accéder à certaines consultations avec ce modèle. La seconde, qu’un abonnement encore plus cher de ces 200 $ par mois apparaît pour que nous puissions profiter de Mythos avec plus de marge de manœuvre. Nous avions déjà une IA gratuite, une IA payante de base et une IA payante haut de gamme. Désormais, nous aurons également une IA très haut de gamme.
À Simseo | L’atterrissage brutal d’OpenAI : après des années à l’avant-garde, on découvre que l’IA ne se gagne pas seulement avec les mèmes et le battage médiatique
