Le méthane est un autre des grands problèmes de l'humanité.  Heureusement, nous avons une arme : les satellites

Le sombre secret de ChatGPT et Bard n’est pas ce qu’ils inventent et inventent. C’est ce qu’ils contaminent

Ne vous fiez pas trop à ce que ChatGPT ou Bard vous disent. Ces moteurs d’IA conversationnelle OpenAI ont un problème fondamental : ils inventent et commettent des erreurs, dont certaines ont coûté cher à des entreprises comme Google. Il y a cependant un autre problème obscur avec eux.

polluer. Dans cette course à la création de moteurs de recherche basés sur l’intelligence artificielle, une énorme puissance de calcul est nécessaire, ce qui entraîne également une augmentation de la quantité d’énergie utilisée par ces entreprises. Cela conduit à des émissions de carbone plus élevées, aggravant un problème qui était déjà notable jusqu’à présent et qui pourrait s’aggraver.

la formation coûte cher. Ces moteurs sont alimentés par d’énormes quantités de données avec lesquelles ils sont entraînés afin qu’ils puissent offrir des réponses de plus en plus précises et meilleures à nos questions. Carlos Gómez-Rodríguez, informaticien à l’Université de La Coruña, a expliqué en filaire comment « la formation de ces modèles nécessite une immense puissance de calcul. À l’heure actuelle, seules les grandes technologies peuvent les former. »

estimations. OpenAI n’a pas indiqué quel est le coût de calcul ou d’énergie de ces produits, mais il y a études publié par des chercheurs de Google qui estiment que la formation GPT-3 —sur laquelle repose en partie ChatGPT— a consommé 1 287 MWh et généré des émissions de plus de 550 tonnes de carbone.

Capture d'écran 2023 02 13 Au 11 31 11

La consommation générée par ces modèles commence à croître significativement, et les choses pourraient s’aggraver si leur utilisation devenait massive. Source : L’Économiste.

Autres études indépendantes, comme celle de l’Université du Massachusetts à Amherst, a révélé qu’une seule séance d’entraînement génère autant d’émissions que cinq voitures pendant tout leur cycle de vie. Si un modèle est formé à plusieurs reprises, les émissions augmentent énormément. Dans L’Économiste (mur de paiement) prévenait déjà il y a quelques années : le coût de formation des machines « devient un problème ».

C’est beaucoup? Le montant n’est pas particulièrement exceptionnel —il équivaut aux émissions de 550 vols entre New York et San Francisco— mais à ce montant il faut ajouter ceux correspondant à « faire tourner le moteur pour répondre aux demandes de millions d’utilisateurs », comme Gómez- Rodríguez a expliqué. .

Et ChatGPT n’est même pas à jour. Le moteur OpenAI a la limitation d’être entraîné avec des données allant jusqu’à fin 2021. Dans un moteur comme celui que Bing intègre et qui est mis à jour pratiquement à jour, cet entraînement est théoriquement constant et cela implique une forte consommation d’énergie et, surtout, tout constant. Selon l’Agence internationale de l’énergieles centres de données sont actuellement responsables de 1 % des émissions de gaz à effet de serre, et cette utilisation massive des ressources pourrait augmenter cette part.

objectifs environnementaux. Cela pourrait compliquer les choses pour Microsoft et Google, qui visent à avoir des émissions négatives d’ici 2050. Google veut atteindre zéro émission d’ici 2030, mais de tels processus pourraient nuire à ces objectifs. Les énergies renouvelables aident, et il est également question de reconcevoir les réseaux de neurones pour qu’ils soient plus efficaces et réduisent le soi-disant « temps d’inférence », c’est-à-dire la quantité de puissance de calcul nécessaire pour qu’un algorithme fonctionne avec de nouvelles données.

Image: Marc Piwnicki