Daybreak OpenAI

Daybreak OpenAI vs Glasswing Anthropic : cybersécurité de l’IA à la frontière

Le 11 mai, Sam Altman a annoncé sur X qu’OpenAI lançait Daybreak pour accélérer la cyberdéfense et sécuriser en permanence les logiciels, et qu’il souhaitait commencer à travailler immédiatement avec autant d’entreprises que possible. Le même jour, le Threat Intelligence Group de Google a publié le premier cas documenté d’un véritable zero-day construit avec l’IA par un groupe cybercriminel, un double contournement d’authentification sur un outil d’administration système open source, intercepté avant qu’il ne soit utilisé dans une campagne d’exploitation massive.

Les deux choses, lues ensemble, en disent long sur l’endroit où le centre de gravité du marché de l’IA s’est déplacé en l’espace de quelques semaines.

Daybreak combine les modèles OpenAI avec Codex Security en tant que harnais d’agents et s’accompagne d’une liste importante de partenaires industriels, Akamai, Cisco, Cloudflare, CrowdStrike, Fortinet, Oracle, Palo Alto Networks, Zscaler.

La promesse opérationnelle correspond à ce qui est attendu à ce stade du cycle : réduire les heures d’analyse à quelques minutes, donner la priorité aux problèmes à fort impact, générer et tester les correctifs directement dans les référentiels des clients, renvoyer les preuves prêtes à l’audit aux systèmes de suivi internes.

Rien de tout cela n’est particulièrement nouveau en tant que fonctionnalité produit, il existe des dizaines de startups Analyse de code basée sur l’IA qui le font depuis au moins deux ans, mais la différence réside dans qui le propose, sur quel modèle et au sein de quelle architecture de confiance.

Daybreak segmente les modèles par niveau d’accès

La partie la plus intéressante de l’annonce réside dans le comment, et non dans le quoi, mais dans la structure de la version. OpenAI a différencié le modèle sous-jacent en trois versions avec des périmètres différents :

  • Norme GPT-5.5 à usage général,
  • GPT-5.5 avec Trusted Access for Cyber ​​​​​​pour un travail défensif vérifié dans des environnements autorisés,
  • GPT-5.5-Cyber ​​​​pour le red teaming, les tests d’intrusion et la validation contrôlée. Traduit, le même modèle propose trois profils de permissivité différents en fonction de qui est l’utilisateur et de ce pour quoi il a contracté. C’est un choix qui change notre façon de penser le déploiement des modèles frontières, car il introduit officiellement le principe selon lequel la capacité offensive d’un modèle ne se décide pas seulement lors de la phase de formation mais également lors de la phase d’accès, à travers la vérification de l’identité des utilisateurs et des mécanismes de contrôle au niveau du compte.

Cette segmentation est le premier signal structuré que le « disponibilité générale« du modèle frontière, compris comme un point de terminaison d’API public identique pour tous, est en train de devenir une idée du passé pour les capacités à haut risque.

La logique que nous voyons est celle d’un marché à plusieurs niveaux, où le modèle de base reste accessible aux masses avec des garanties standard, et les capacités qui peuvent être armées nécessitent des transferts de confiance déclarés, vérifiés et contractuellement contraignants. Ce n’est pas un détail, c’est un changement de paradigme de distribution.

La différence avec Glasswing est un choix politique

Anthropic a annoncé le projet Glasswing en avril avec une approche différente et plus fermée. Claude Mythos Preview, défini comme «de loin le modèle d’IA le plus puissant» jamais produit par l’entreprisen’a pas été et ne sera pas rendu accessible au public, et l’accès passe par une coalition limitée de partenaires d’infrastructures critiques, AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks, ainsi qu’environ 40 organisations gérant des logiciels de base. Le prix est de 25 dollars par million de jetons d’entrée et 125 jetons de sortie, avec 100 millions de dollars de crédit fourni pour la couverture initiale.

Anthropic a explicitement averti le gouvernement américain que les modèles de cette classe rendraient les cyberattaques à grande échelle beaucoup plus probables en 2026.

Glasswing et Daybreak résolvent le même problème avec deux philosophies opposées. Anthropic a choisi le modèle de la « coalition critique fermée avec accès contrôlé et reporting préventif au gouvernement », une position qui pèse lourd en termes de responsabilité mais qui laisse de côté pratiquement tout le tissu productif autre que l’infrastructure mondiale.

OpenAI a choisi le modèle de « déploiement itératif étendu avec segmentation de confiance », et en fait la page d’accueil de Daybreak comporte deux boutons, «Demander une analyse de vulnérabilité » Et « Contacter le service commercial« , signalant la volonté de passer de l’exception au service commercial. Ce sont deux visions de la politique de l’entreprise, avant même celle du produit.

Mozilla, 271 patchs : pourquoi le volant fonctionne vraiment

Il existe un cas concret qui mérite attention, car il dépasse la rhétorique et montre que la démarche fonctionne. Mozilla a publié en avril que Claude Mythos Preview avait aidé à identifier et correctif 271 vulnérabilités dans la dernière version de Firefox.

OpenAI affirme que le prédécesseur de GPT-5.5-Cyber, GPT-5.4-Cyber ​​​​​​sorti en avril, a contribué à réparer plus de 3 000 vulnérabilités au cours des mois précédant l’annonce de Daybreak. Ce sont des chiffres difficiles à représenter sans unité de mesure de référence, car une seule équipe de pentest humain en une année de travail sur un base de code Le complexe en trouve généralement des dizaines, et non des milliers.

Le volant c’est simple à parler et puissant dans ses effets, le modèle scanne d’énormes bases de code à des vitesses non humaines, propose des exploits candidats, le système vérifie bac à sable isolés s’ils sont réels, générez un correctif, réappliquez l’analyse. Le goulot d’étranglement passe de la découverte à remédiationet ici les choses se compliquent, car trouver un bug nécessite quelques secondes de calcul, le corriger nécessite des heures de travail de la part d’un mainteneur qualifié.

Bruce Schneier – chercheur et professeur à la Kennedy School de Harvard, membre du conseil d’administration de l’EFF et responsable de l’architecture de sécurité chez Inrupt, Inc. – l’a bien résumé : nous sommes entrés dans l’ère des « logiciels instantanés », où la fenêtre de 90 jours de divulgation responsable est mort, car il faut 30 minutes à un modèle pour transformer un différence de patch dans un exploit fonctionnel.

Le premier véritable Zero Day construit par une IA attaquante

Toute cette discussion resterait académique si le rapport du Google Threat Intelligence Group sur le premier cas documenté n’était pas arrivé le même jour que Daybreak. jour zéro construit avec l’IA par un acteur criminel et rapproché du déploiement en production. Il s’agissait d’un contournement 2FA dans un outil d’administration système open source, implémenté dans un script Python, développé par un groupe qui souhaitait l’utiliser dans un événement d’exploitation de masse.

Google écrit dans le rapport que des acteurs imputables à la Chine, comme le groupe UNC2814ont expérimenté des jailbreaks basés sur la personne en prétendant agir en tant qu’auditeurs de sécurité senior pour pousser les modèles à rechercher des vulnérabilités sur les micrologiciels embarqués, tandis que le groupe nord-coréen APT45 a envoyé des milliers d’invites répétitives pour analyser de manière récursive les CVE publics et valider les exploits de preuve de concept.

Big Sleep, l’agent IA de Google DeepMind et Project Zero, voyage dans la direction opposée, a trouvé sa première vulnérabilité réelle et a aidé à intercepter un bug qui était sur le point d’être utilisé dans une attaque.

CodeMender, l’agent de Google pour les correctifs automatiques, est le reflet de Daybreak et Glasswing dans l’arène Alphabet.

Trois laboratoires frontaliers, trois programmes distincts, tous nés au cours du même trimestre, tous axés sur le même principe, à savoir que la cyberdéfense de la prochaine décennie sera largement assurée par des agents d’IA travaillant en continu contre d’autres agents d’IA attaquants.

L’anthropique comme noyau de dépendance et son impact sur le cybermarché

Forrester a écrit que Mythos a promu Anthropic au rang de dépendance centrale pour de nombreux cyber-vendeurs, jusqu’à l’apparition du prochain modèle frontière comparable. La phrase, lue dans Daybreak, devient plus intéressante, car elle signifie que le marché de la cybersécurité est sur le point d’être réabsorbé dans l’arène des laboratoires frontières. Les fournisseurs traditionnels, ceux qui vendent SIEM, EDR, SOAR, gestion des vulnérabilités, gestion des correctifs, ont deux options devant eux : intégrer via API avec les modèles de laboratoire et accepter de devenir la couche d’application au-dessus d’une infrastructure cognitive qu’ils ne contrôlent pas, ou construire ou concéder sous licence leurs propres capacités comparables, une direction beaucoup plus coûteuse et techniquement prohibitive aujourd’hui.

Les prix de tests d’intrusion Traditionnellement, dit toujours Forrester, ils se situent aujourd’hui entre 20 et 120 000 dollars par engagement, en raison de la rareté perçue de l’expertise en matière de découverte. Si la découverte devient une API standard qui coûte quelques milliers de jetons, le prix du service est brutalement réduit et la valeur se déplace entièrement vers l’orchestration, la priorisation, le contexte commercial et la gouvernance des risques.

Le 7 mai, le FMI a publié un article de blog appelant les décideurs politiques à traiter la cybersécurité basée sur l’IA comme une question de stabilité financière et non comme un dossier technique spécifique à un secteur. Lorsque le Fonds monétaire international prend position sur une question cyber, c’est parce que quelque chose a changé dans la structure des risques.

Le délai de mise à jour de l’écosystème open source reste le véritable problème

Il y a un point qu’aucun des trois laboratoires n’a encore résolu, et c’est ce qui fera la différence dans les mois à venir. La découverte évolue de façon exponentielle avec les modèles, mais pas la remédiation, car la plupart des logiciels critiques dans le monde sont gérés par de petites équipes open source bénévoles et chroniquement sous-financées. Glasswing a révélé des vulnérabilités cachées depuis 16 et 27 ans dans des projets maintenus par quelques personnes.

Anthropic a versé 4 millions de dollars en dons à des groupes de sécurité open source, un bon geste dans le sens, d’une taille spectaculairement insuffisante par rapport à l’ampleur du problème.

Sans repenser la manière dont nous finançons la maintenance des logiciels open source sur lesquels repose tout le reste, la phase suivante risque de reproduire le problème COBOL, le code indispensable, la maintenance non durable, la dette technique qui s’accumule plus vite que la capacité de la rembourser.

C’est l’élément politique qui reste à découvrir et que ni Daybreak, ni Glasswing ni Big Sleep ne résolvent seuls, car il faut une coordination entre l’industrie, les gouvernements et les fondations qui va au-delà de la course concurrentielle entre laboratoires.

Sans aucun doute, l’Europe, qui dispose du Cyber ​​​​Resilience Act et d’une trajectoire réglementaire sur la chaîne d’approvisionnement des logiciels, dispose d’une fenêtre d’avantage pour systématiser ces trois éléments, la capacité d’IA, le financement de la maintenance, la responsabilité de la chaîne d’approvisionnement, avant que le marché ne se stabilise autour d’une structure fixée par d’autres.

La question est de savoir si les acteurs européens lisent les annonces de cette semaine comme des nouveautés sur les produits ou comme ce qu’il s’agit réellement d’une reconfiguration politique de l’ensemble de la pile mondiale de cybersécurité.