L'IA a ruiné les projets de Google en matière de durabilité.  Son plan pour y remédier : les « quatre M »

L'IA a ruiné les projets de Google en matière de durabilité. Son plan pour y remédier : les « quatre M »

La demande énergétique, la consommation d’eau et l’empreinte carbone de l’intelligence artificielle suscitent des inquiétudes croissantes. Il ne s’agit pas d’un catastrophisme de fortune, mais d’une réalité qui exerce une pression croissante sur le réseau électrique et qui a contraint l’Agence internationale de l’énergie à convoquer un sommet mondial. Google propose une stratégie en quatre volets pour s'attaquer au problème.

Les quatre « M ». Dans une étude publiée par l'IEEE, Google identifie quatre pratiques, qu'il appelle « les 4M », grâce auxquelles, selon lui, les grandes entreprises d'IA peuvent réduire l'empreinte carbone de leurs algorithmes d'apprentissage automatique de 100 à 1 000 fois :

  1. Modèle : utiliser des architectures d'apprentissage automatique plus efficaces pour réduire les besoins de calcul de 3 à 10 fois
  2. Machine : utilisez du matériel d’intelligence artificielle spécialisé pour améliorer son efficacité de 2 à 5 fois
  3. Mécanisation : Préférer le cloud computing à l'informatique locale pour réduire la demande énergétique de 1,4 à 2 fois
  4. Cartographie : optimisez les emplacements des centres de données en fonction de l'énergie propre disponible pour réduire les émissions de 5 à 10 fois.

David Patterson, chercheur chez Google Research et auteur principal de l'étude, affirme que l'empreinte carbone associée à la formation en IA diminuerait plutôt qu'augmenterait en suivant ces quatre pratiques.

M pour Modèle. Au niveau architectural, les nouveaux modèles d’IA intègrent de plus en plus d’avancées visant à améliorer leur efficacité. Google, Microsoft, OpenAI ou Meta utilisent la technique de la « distillation des connaissances » pour former des modèles plus petits qui imitent un grand modèle, le « maître », exigeant moins d'énergie.

Des modèles de plus en plus grands continuent d'être entraînés, dont beaucoup ne sont pas disponibles pour les utilisateurs, mais dans le cas de Google, l'entraînement de ces modèles représente 40 % de la demande énergétique, tandis que « l'inférence » des modèles disponibles pour les utilisateurs ( le traitement des réponses) représente 60%.

Bien que cela puisse paraître contre-intuitif, les derniers modèles multimodaux rendus publics, tels que Gemini 1.5 Pro et GPT-4o, sont également plus efficaces que leurs prédécesseurs grâce à leur capacité à exploiter différentes modalités de saisie, telles que les images et le code : ils apprennent avec moins de données et d’exemples que les modèles basés uniquement sur du texte.

Communauté solaire
Communauté solaire

Rejoignez notre achat groupé aérothermie et économisez jusqu'à 70%. Chez Comunidad Solar, nous vous proposons la meilleure technologie de climatisation pour votre maison à des prix réduits, avec un financement flexible et des avantages fiscaux. Participez et transformez votre maison !

Conseils proposés par la marque

M pour Machine. La grande majorité des entreprises qui développent l’IA achètent leur matériel auprès de Nvidia, qui dispose de puces spécialisées. Mais de plus en plus d'entreprises optent pour le « modèle Google » consistant à développer leur propre matériel, comme Microsoft, OpenAI et en Chine, Huawei.

Google utilise depuis des années ses propres « TPU » (unités de traitement tensoriel, spécialisées dans l’IA). La dernière génération s'appelle Trillium, elle a été annoncée en mai et elle est 67 % plus économe en énergie que la précédente, ce qui signifie qu'elle peut effectuer plus de calculs avec moins d'énergie, tant en formation et en réglage qu'en inférence d'IA dans les centres de données de Google.

M pour Mécanisation. Encore une idée contre-intuitive. Le cloud computing consomme moins d'énergie que l'informatique dans un centre de données local. Les centres de données cloud, en particulier ceux dédiés à l'IA, contiennent des dizaines de milliers de serveurs de plus que les centres de données d'une organisation spécifique, et sont conçus avec de meilleurs systèmes de distribution d'énergie et de refroidissement, car ils peuvent s'autofinancer.

Avec l’inconvénient de confier les données à de grandes entreprises du cloud, comme Amazon, Microsoft ou Google, les centres de données cloud présentent un autre avantage évident : ils sont plus modernes, ce qui signifie qu’ils disposent de machines plus spécialisées dans la formation et l’inférence de l’IA.

M pour Cartographie. Une autre raison pour laquelle Google appelle à plus de cloud computing et moins d'informatique sur site est l'engagement de ces entreprises en faveur des énergies renouvelables. Certains de ces grands centres de données fonctionnent déjà avec 90 % d’énergie sans carbone.

Les grandes entreprises technologiques installent leurs nouveaux centres de données dans des endroits où les ressources renouvelables sont abondantes, y compris l'eau utilisée pour refroidir les serveurs, et grâce à cela des entreprises comme Google, Microsoft et Apple équivalent à 100% de l'électricité de leurs opérations avec des énergies renouvelables. , et aspirent à zéro émission nette d’ici la fin de cette décennie.

D’un autre côté, des entreprises comme Microsoft et OpenAI ne sont pas sûres que l’offre d’énergies renouvelables puisse répondre à la demande croissante d’énergie et sont déjà engagées dans l’expansion de la capacité nucléaire, soit avec de petits réacteurs modulaires, soit en investissant dans la recherche sur la fusion.

Images | Google Cloud

À Simseo | Le réseau électrique souffre, et non à cause des voitures électriques : à cause de l’énorme demande en intelligence artificielle