Claude

Plateforme Claude sur AWS GA : compromis de base et gouvernance d’entreprise

Anthropic et AWS ont déclaré le disponibilité générale (GÉORGIE) de Claude Platform sur AWS, un service qui apporte toute l’expérience native de l’API Claude dans votre compte Amazon Web Services, avec la même documentation, la même console, les mêmes modèles et les mêmes bêtas arrivant le même jour que le lancement sur la plateforme directe. L’annonce est datée du 12 mai.

Pour ceux qui travaillent chez AWS depuis des années, c’est la première fois qu’ils peuvent appeler Claude sans ouvrir un deuxième contrat, sans créer une deuxième facturation, sans gérer un deuxième ensemble d’identifiants.

La différence n’est pas esthétique. AWS est le premier fournisseur de cloud à offrir ce niveau d’intégration native avec Anthropic, et le modèle qui en résulte redéfinit où s’arrêtent les frontières opérationnelles entre le fournisseur de cloud et le fournisseur de modèles, en particulier sur un marché où l’adoption de la production Claude a augmenté de manière non linéaire au cours de l’année écoulée.

Cependant, la présence simultanée de Claude sur Amazon Bedrock et de Claude Platform sur AWS génère une compromis que chaque CTO doit résoudre consciemment, car les deux services répondent à des questions différentes et ont des modèles de risque différents.

j’attends Plateforme Claude sur AWS Claude dans le substrat rocheux amazonien Fond rocheux amazonien (ancien)
Qui gère la pile Anthropique AWS AWS
Surface de l’API API de messages anthropiques (/v1/messages) API de messages anthropiques activée /anthropic/v1/messages Base rocheuse Converse / InvokeModel
Disponibilité des fonctionnalités Généralement disponible le même jour que l’API Claude (voir limitations des fonctionnalités) Basé sur le calendrier de publication d’Amazon Bedrock Basé sur le calendrier de publication d’Amazon Bedrock
Compétences des agents Disponible (bêta) Non disponible (nécessite l’exécution de code) Pas disponible
Fonctionnalités bêta Pris en charge via les en-têtes anthropic-beta (voir limitations des fonctionnalités) En-tête anthropic-beta non pris en charge En-tête anthropic-beta non pris en charge
Authentification Clé AWS IAM/SigV4 ou API AWSIAM/SigV4 AWS IAM/SigV4 ou jeton de support (SDK C#, Go et Java uniquement)
Facturation Marché AWS AWS (service natif) AWS (service natif)
URL de base aws-external-anthropic.{region}.api.aws bedrock-mantle.{region}.api.aws bedrock-runtime.{region}.amazonaws.com
SDK client Classe de client spécifique à la plateforme (par ex. AnthropicAWS en Python), en version bêta AnthropicBedrockMantle AnthropicBedrock / Base rocheuse du SDK
Console Claude Consul (platform.claude.comaccessible via la console AWS) Console de substrat rocheux Console de substrat rocheux
Limites d’utilisation et quotas Géré par Anthropic Géré par AWS Géré par AWS
Processeur de données d’inférence Anthropique AWS AWS

Ce que vous obtenez dans votre compte AWS : Parité des fonctionnalités avec la plateforme Claude native

Le premier point à corriger est ce qu’il y a à l’intérieur du package. La plateforme Claude sur AWS comprend l’API Messages complète, les agents gérés Claude en version bêta, la stratégie de conseiller en version bêta, la recherche sur le Web et la récupération sur le Web, l’exécution de code pour les scripts Python qui s’exécutent dans l’appel d’API, l’API Files en version bêta, les compétences en version bêta, le connecteur MCP en version bêta, la mise en cache des invites, les citations, le traitement par lots et un accès complet à la console Claude pour un développement et une évaluation rapides.

Les modèles disponibles au lancement sont les Claude Opus 4.7, Sonnet 4.6 et Haiku 4.5, et Anthropic a indiqué que chaque nouveau modèle sera disponible dès le premier jour sur la plateforme AWS, au même prix que la plateforme directe.

Le détail de la parité des fonctionnalités est ce qui fait la différence pour ceux qui créent des agents complexes. Sur Bedrock, historiquement, les nouveaux produits Anthropic arrivaient avec un retard de plusieurs semaines ou mois par rapport à la version native, et certaines fonctionnalités avancées, comme les Skills ou le connecteur MCP, n’étaient pas du tout disponibles.

Désormais, une équipe développant un agent avec Claude Code ou avec Cowork peut faire pointer les SDK vers les nouveaux points de terminaison régionaux du type et obtenir le même comportement que l’API canonique, mais dans le périmètre IAM de l’entreprise.

OpenRouter, cité par Anthropic comme premiers utilisateursa déclaré lors d’une discussion avec l’équipe Anthropic dans le message de lancement de Claude qu’il avait choisi Claude Platform sur AWS car il « obtient un accès direct aux dernières fonctionnalités de l’API Claude native en contrôlant l’accès avec les mêmes informations d’identification IAM utilisées pour d’autres services AWS ».

C’est le modèle que la plupart client d’entreprise sera confronté au moment de décider comment orchestrer l’adoption à plusieurs échelles d’équipe.

Authentification via IAM, facturation sur une seule facture, audit dans CloudTrail

La deuxième partie de la proposition est infrastructurelle, et c’est ici que les décideurs techniques trouvent la principale motivation pour évaluer la transition. L’authentification passe par AWS IAM avec Signature version 4, de sorte que les politiques qui régissent déjà l’accès aux compartiments S3, aux bases de données RDS ou aux files d’attente SQS s’étendent directement aux appels Claude. Vous pouvez restreindre un espace de travail spécifique via ARN, vous pouvez accorder des autorisations à un rôle IAM temporaire pour un agent exécuté dans Lambda, vous pouvez révoquer les informations d’identification de manière centralisée auprès de l’équipe de sécurité sans coordination avec Anthropic. Il s’agit d’une continuité opérationnelle qui réduit considérablement le coût cognitif pour ceux qui gèrent la gouvernance des identités dans des environnements réglementés.

La facturation s’effectue au sein d’AWS Marketplace, un modèle basé sur la consommation, et le fait pertinent est que les dépenses de Claude entrent dans le même pool que les engagements AWS et érodent le solde. Pour les entreprises ayant conclu des accords de remise d’entreprise avec AWS, il s’agit d’un levier économique concret : la consommation de Claude ne devient pas un poste de dépense distinct à déclarer au CFO, elle devient une colonne supplémentaire au sein du CFO. Explorateur de coûtsaligné sur EC2, S3 et RDS dans la même vue.

Anthropic précise dans son annonce que ceux qui disposent déjà d’une offre privée active sur Bedrock doivent se coordonner avec leur chargé de compte avant de commencer, car les remises ne s’appliquent pas rétroactivement.

La journalisation d’audit passe par AWS CloudTrail, avec des événements de gestion capturés par défaut pour les opérations de l’espace de travail et la possibilité d’activer la journalisation des événements de données pour enregistrer également l’activité d’inférence. Pour ceux qui opèrent dans des secteurs réglementés, banque, santé, assurance, administration publique, c’est la différence entre « nous avons une piste d’audit » et « nous avons la piste d’audit au sein du même système sur lequel le SOC de conformité travaille déjà depuis des années ».

Réduit le temps d’intégration du service dans le processus d’examen de sécurité interne, car le cadre d’observabilité ne change pas.

Socle ou plateforme : pourquoi n’est-il pas interchangeable ?

Anthropic et AWS ont présenté les deux services comme complémentaires et non comme alternatives, et cela vaut la peine de prendre cette formulation au sérieux car ils répondent à des besoins de conformité différents. Sur Amazon Bedrock, AWS est le sous-traitant des données : les demandes d’inférence restent dans la limite de sécurité AWS et la région AWS choisie détermine également la région de traitement des données.

Sur Claude Platform sur AWS la relation est inversée : Anthropic exploite le service, et les données d’inférence sont traitées en dehors du périmètre AWS, dans l’infrastructure Anthropic. L’article du blog AWS Machine Learning et la documentation de Claude le disent explicitement, et c’est un détail non négociable.

Pour ceux qui ont des exigences strictes en matière de résidence des données, des secteurs financiers sous surveillance, des données de santé sous HIPAA, des contrats publics avec des clauses souveraines, Bedrock reste le bon choix car il maintient les données dans les limites géographiques et juridiques d’AWS. Pour ceux qui n’ont pas cette contrainte et souhaitent un accès complet aux fonctionnalités natives d’Anthropic avec tous les avantages de la parité des fonctionnalités et de la console de développement, Claude Platform sur AWS est le choix le plus agressif en termes de délais de mise sur le marché et celui qui ouvre la voie aux scénarios les plus avancés avec des agents gérés, des compétences et une stratégie de conseiller.

La question à se poser n’est pas laquelle des deux est globalement la meilleure, mais laquelle des deux correspond au profil de risque de chaque cas d’utilisation, sachant qu’elles coexistent dans le même compte AWS et peuvent être utilisées simultanément par différentes charges de travail.

Agents gérés par Claude

Parmi les versions bêta qui deviennent utilisables en production au sein d’AWS, Claude Managed Agents est celle qui est la plus susceptible de faire pencher la balance au cours des six prochains mois. La documentation d’Anthropic le décrit comme un «Faisceau d’agents pré-construit et configurable qui s’exécute dans une infrastructure gérée« , conçu pour les tâches de longue durée et le travail asynchrone. Pour une équipe qui construit actuellement des agents internes avec des frameworks personnalisés, une gestion manuelle de l’état, des planificateurs propriétaires et une logique de nouvelle tentative codée à partir de zéro, l’arrivée d’un harnais géré directement par Anthropic dans un compte AWS décale une quantité de travail de échafaudage sortir de votre arriéré.

L’effet net est que l’unité d’adoption monte d’un niveau. Jusqu’à il y a quelques mois, un décideur technique pensait en termes d’appels d’API uniques, d’ingénierie rapide et de RAG. Aujourd’hui, vous pouvez penser en termes d’agents gérés qui existent en production, avec accès à l’exécution de code, à la récupération Web et aux compétences, au sein d’un compte AWS où les autorisations sont déjà configurées et la piste d’audit est déjà activée.

Le saut opérationnel est exactement ce que The New Stack a caractérisé comme la première fois qu’un fournisseur de cloud offre l’expérience native d’une plate-forme d’IA tierce, sans intermédiaires de processus.

Comment se déroule l’adoption ?

Pour ceux qui sont déjà sur AWS et utilisent Claude via Bedrock ou via une clé API Anthropic distincte, les prochaines semaines sont le bon moment pour faire trois choses concrètes.

Première chose : comprendre si le cas d’utilisation a des exigences de résidence des données qui l’obligent à rester sur Bedrock ou s’il peut migrer vers le service natif, et séparer les charges de travail en conséquence.

Deuxièmement : vérifiez auprès du responsable du compte s’il existe des engagements d’entreprise AWS qui peuvent absorber les dépenses de Claude et dans quelles conditions, avant d’engager une consommation importante.

Troisièmement : évaluer si l’introduction d’agents et de compétences gérés nous permet de compacter les projets d’agents internes qui nécessitent aujourd’hui plusieurs équipes coordonnées, réduisant ainsi l’empreinte opérationnelle.

Anthropic a signé à nouveau un engagement d’infrastructure avec AWS en avril, d’une valeur de plus de 100 milliards de dollars en capacité de calcul au cours des dix prochaines années, avec accès à Trainium et jusqu’à 5 gigawatts de capacité.

Ce disponibilité générale il s’agit du premier produit grand public issu de cet accord et il définit un modèle qui pourrait être reproduit sur d’autres cloud dans les cycles futurs. Pour ceux qui choisissent aujourd’hui où faire converger la pile d’agents d’entreprise, le signal est que le chemin vers l’intégration entre les fournisseurs de cloud et les fournisseurs de modèles devient plus étroit, plus contractuel et moins occasionnel.

Il reste sans doute à voir avec quelle rapidité ce resserrement se traduira par des blocages opérationnels irréversibles. Ceux qui planifient maintenant peuvent encore faire leur choix, ceux qui ont reporté leur projet de six mois le trouveront probablement déjà fait.