Adam Selipsky, chef d'AWS, parle de l'IA générative, de l'investissement d'Amazon dans Anthropic et de la réduction des coûts du cloud

Adam Selipsky, chef d’AWS, parle de l’IA générative, de l’investissement d’Amazon dans Anthropic et de la réduction des coûts du cloud

Adam Selipsky dirige l’unité cloud d’Amazon à l’un des moments les plus importants de l’histoire de la technologie.

Selipsky, PDG de l’unité de cloud computing AWS de la société, est à l’origine des différentes offres d’IA générative qu’Amazon a déployées au cours des derniers mois dans le but de rivaliser avec Microsoft et d’autres dans la course aux armements croissante en matière d’IA.

AWS est un leader sur le marché du cloud et une activité extrêmement rentable pour Amazon. Cependant, une partie de sa croissance a ralenti au cours des derniers trimestres, un problème attribué au fait que les clients ont réduit leurs dépenses en raison des défis liés à l’économie dans son ensemble.

Simultanément, l’entreprise a été à l’avant-garde des efforts d’Amazon en matière d’IA générative, qui ont inondé la conscience du public l’année dernière avec la sortie du populaire chatbot ChatGPT d’OpenAI. Lors d’un discours prononcé fin novembre lors d’une conférence AWS à Las Vegas, Selipsky a dévoilé la réponse (en quelque sorte) de l’entreprise à ChatGPT, un assistant d’IA pour les entreprises appelé Q.

L’Associated Press s’est récemment entretenu avec Selipsky sur la façon dont les entreprises dépensent en services cloud, l’investissement d’Amazon dans la startup d’intelligence artificielle Anthropic et l’avenir de l’IA générative. La conversation a été modifiée pour plus de longueur et de clarté.

Q : Les entreprises ont réduit leurs dépenses cloud cette année. Est-ce que cela arrive toujours ?

R : Au cours des derniers trimestres, bon nombre de nos clients ont recherché une optimisation des coûts. Depuis le premier jour, nous disons qu’AWS et le cloud sont l’endroit idéal pour y parvenir. Nous avons constaté que de nombreux clients ont progressé grâce à cette optimisation des coûts. Et nous avons d’autres clients qui sont toujours au milieu de tout ça. Nous en sommes plus loin, mais ce n’est pas encore fini.

Nous voyons également encore de nombreux clients investir. Les entreprises qui vont gagner sont celles qui investissent maintenant – dans une période économique incertaine – alors que d’autres hésitent dans leurs investissements globaux. Et nous travaillons avec de nombreux clients qui font exactement cela. Nous constatons également un énorme intérêt pour nos offres d’IA générative.

Q : Quelle est votre vision de l’IA générative ?

R : Nous réfléchissons vraiment à trois couches différentes de la pile d’IA générative.

À la couche inférieure de la pile se trouve l’infrastructure nécessaire à la réalisation de l’IA générative. Nous avons une très grande activité basée sur les GPU Nvidia et avons conçu et livré nos propres puces sur mesure, notamment nos puces Trainium et Inferentia.

La plupart de nos entreprises clientes ne construiront pas de modèles. La plupart d’entre eux souhaitent utiliser des modèles construits par d’autres personnes. Et c’est donc la couche intermédiaire de la pile. Nous proposons à nos clients plusieurs modèles de fondation avec un service appelé Amazon Bedrock, notamment d’Anthropic, Meta et d’Amazon lui-même. L’idée selon laquelle une seule entreprise fournirait tous les modèles du monde n’est tout simplement pas réaliste, à mon avis. Nous avons découvert que les clients ont besoin d’expérimenter et nous fournissons ce service.

Au sommet de la pile se trouvent les applications qui ont été créées à l’aide de l’IA générative. Et pour cela, nous avons un compagnon de codage pour les développeurs.

Q : En parlant de modèles, il a été rapporté qu’Amazon était en train de créer un grand modèle de langage appelé Olympus. Est-ce quelque chose que nous devrions nous attendre à voir bientôt ?

R : Vous devez absolument vous attendre à voir plusieurs itérations des modèles propriétaires d’Amazon, qui sont déjà disponibles aujourd’hui sous la marque Titan. Cela nous ramène à l’idée qu’il n’existe pas de modèle unique pour les gouverner tous. Nous voulons plusieurs modèles avec différents cas d’utilisation. Et je m’attends à ce qu’ils soient collectivement très compétents et très puissants.

Q : Pouvez-vous discuter avec moi de l’investissement d’Amazon dans la startup d’intelligence artificielle Anthropic ? Selon certaines informations, Google, qui soutient également Anthropic, augmente ses investissements. Certains disent que cela devient une sorte de guerre par procuration entre Amazon et Google. Le voyez-vous ainsi ?

R : Non, je ne le fais pas. Nous entretenons une relation très étroite avec Anthropic, qui est très bénéfique pour les deux sociétés. Anthropic a choisi Amazon comme principal fournisseur de cloud pour ses charges de travail critiques. La majorité des charges de travail Anthropic s’exécuteront sur AWS. Période.

Or, ce ne sont pas des relations exclusives. Ils ont des besoins informatiques très importants. et Anthropic a évidemment utilisé d’autres fournisseurs de cloud au fil du temps.

Anthropic utilise AWS depuis sa création en 2021. Nous avons travaillé ensemble et la relation s’est approfondie. Anthropic forme des modèles plus grands et plus performants. Et ils ont vu l’opportunité d’obtenir d’AWS une très grande capacité de calcul nécessaire pour entraîner leurs modèles. Il est également très important pour Anthropic d’être présent dans Amazon Bedrock, qui est notre service de confiance pour accéder aux modèles de fondation.

Nous sommes conscients que les gens d’Anthropic sont très intelligents et experts dans ce qu’ils font. Et en coopérant et en collaborant ensemble pour la formation et l’exécution des modèles Anthropic sur nos puces, ils vont nous aider à améliorer cette technologie. Il s’agit donc vraiment d’une relation mutuellement bénéfique dont je pense que les deux entreprises et, plus important encore, nos clients communs, en bénéficieront réellement pour les années à venir.

Q : Comment Amazon envisage-t-il les garanties lors du développement de cette technologie ?

R : L’IA responsable est extrêmement importante et quelque chose qu’Amazon prend très au sérieux. Nous avons un certain nombre de principes pour une IA responsable dont nous avons fait part publiquement. Nous avons fait des choses comme créer ces cartes pour nos services, qui parlent des utilisations du modèle, de l’utilisation prévue du modèle, de la façon dont ils ont été formés. Nous essayons de fournir plus de transparence sur la façon dont certains de ces services d’IA sont construits et à quoi ils servent.

Nous pensons qu’un grand nombre de solutions autour de l’IA responsable devront être des solutions multilatérales. Nous avons besoin d’une collaboration entre les leaders de l’industrie du cloud, des gens comme AWS et ceux qui produisent des modèles, comme Anthropic, ainsi que les gouvernements, les universités et autres. C’est pourquoi nous avons participé si activement aux forums sur l’IA responsable à la Maison Blanche et au Royaume-Uni.

Q : Où voyez-vous la course à l’IA l’année prochaine ?

R : Je pense que vous allez assister à une évolution et à un changement très rapides. Et cela reflète en partie le fait que nous sommes encore si tôt dans l’évolution de l’IA générative. C’est pourquoi je pense que l’adaptabilité et la flexibilité sont des avantages extrêmement importants pour les clients. Pour atteindre leurs objectifs commerciaux et satisfaire leurs clients, ils devront être très flexibles, agiles et adaptables dans la façon dont ils font évoluer leur utilisation de l’IA générative.