Mozilla affirme que Claude Mythos donne 90 tours à l’Opus 4.6. Chez OpenAI, ils ne croient à rien du tout
Les plus grandes entreprises d’IA sont dans la course pour créer le meilleur modèle d’intelligence artificielle. Cette course a été remportée par Anthropic avec Mythos. Du moins, c’est ce qu’ils prétendent (bien sûr), avec des phrases telles que c’est si puissant qu’ils ne peuvent pas le rendre public. Il y a des raisons de prendre les paroles d’Anthropic avec des pincettes, mais ce qui est évident, c’est que Mythos fonctionne déjà.
Bien que l’entreprise ne l’ait pas publié, elle a déjà donné accès à certains partenaires technologiques. La décision est basée sur la crainte de l’entreprise que le modèle soit utilisé de manière malveillante. Ils l’ont eux-mêmes décrit comme une menace pour la cybersécurité en se basant sur le nombre de vulnérabilités zero-day que Mythos aurait trouvées aussi bien dans les principaux systèmes d’exploitation du marché que dans les navigateurs.
Et, au moment où le modèle suscite l’opinion des uns et des autres, Mozilla arrive à affirmer que la dernière version de Firefox 150 contient des correctifs de sécurité pour 271 vulnérabilités qu’ils ont pu découvrir grâce à cette version préliminaire de Claude Mythos.
De son côté, OpenAI ne croit rien du tout.
« Tout aussi capable qu’un humain »
Mozilla le détaille dans l’un des derniers articles de son blog. L’entreprise collaborait avec Anthropic depuis un certain temps et utilisait le modèle Claude Opus 4.6 pour trouver les erreurs. En janvier, 22 vulnérabilités ont été détectées en quelques semaines, dont 14 jugées très graves. Sur ces 22 trouvés par Opos 4.6, qui est déjà un modèle puissant, passons aux 271 découverts par Mythos.
C’est un grand pas en avant et Mozilla a voulu continuer à enquêter pour voir dans quelle mesure le nouveau modèle surpasse Opus. En analysant Firefox 147, Mythos a généré 181 exploits fonctionnels. Opus 4.6 ? Juste deux. 90 fois moins.
Ces résultats ont amené Mozilla à écrire que Mythos Preview est « tout aussi performant que les meilleurs chercheurs en cybersécurité humaine », ajoutant qu’ils n’ont trouvé aucune catégorie que les humains peuvent détecter et que Mythos ne peut pas détecter.
Cela a une autre lecture puisque, comme le déclare l’entreprise elle-même, voir que le modèle est capable de trouver autant d’erreurs en si peu de temps l’amène à se demander s’il est possible de rester à jour dans le travail de cybersécurité lorsque sont développées des alternatives à Mythos qui tombent entre des mains non contrôlées par les responsables.

Il y a toujours le fait que Mythos n’a trouvé aucune erreur que les « gardiens » humains de Mozilla n’aient pas détectée et qu’un outil comme celui-ci aidera à avoir un système plus sécurisé. Tout cela, en fin de compte, pousse le récit selon lequel Mythe est pratiquement un miracle technologique.
une bombe nucléaire
Le revers de la médaille est que Sam Altman, responsable d’OpenAI, ne croit rien. Profitant de sa récente participation à un podcast, il a qualifié l’ensemble du mouvement Anthropic de stratagème marketing basé sur la peur.
Il accuse l’entreprise de Dario Amodei (l’ennemi public d’Altman) de vouloir restreindre l’IA à un petit nombre de personnes dans une stratégie qu’il a comparée à celle d’une bombe atomique, en menaçant de la larguer et en gagnant sa vie en vendant des bunkers pour se protéger de cette même bombe.
« Il est évident qu’il s’agit d’une stratégie marketing extraordinairement puissante. Nous avons créé une bombe et nous allons la larguer. Vous pouvez nous acheter un bunker pour 100 millions de dollars. »
C’est un point de plus dans cette rivalité historique dans laquelle les deux entreprises (et leurs dirigeants) sont impliqués depuis un certain temps, mais cela arrive juste au moment où Anthropic joue un rôle plus important et qu’OpenAI est obligé de lâcher du lest sous forme de services comme Sora.

Altman n’est pas le seul à penser qu’Anthropic utilise à plusieurs reprises ce discours selon lequel « nous avons quelque chose de si puissant que nous ne pouvons pas le rendre public » parce que c’est une bonne stratégie pour obtenir des financements. Il y a déjà des voix qui suggèrent que Mythos n’est pas si grave et, en fait, d’autres modèles se sont avérés capables de faire de même, trouvant les mêmes erreurs et problèmes détectés par celui d’Anthropic.
Mais en plus de cela, il faut rappeler qu’en 2019, quelqu’un avait déjà dit qu’un modèle était trop dangereux pour un lancement public. OMS? OpenAI lui-même avec GPT-2. Évidemment, ce n’était pas si dangereux.
À Simseo | OpenAI et Anthropic ont proposé l’impossible : perdre 85 milliards de dollars en un an et survivre
