Un chercheur veut s'assurer que l'IA ne détruit pas l'environnement
L’intelligence artificielle (IA) a changé le monde tel que nous le connaissons. Il a été utilisé pour tout, depuis la surveillance des soins de santé jusqu'à la rédaction de discours. Mais l’impact de cette technologie sur l’environnement devient une préoccupation majeure.
ChatGPT, l'un des modèles d'IA les plus connus, est une forme d'IA générative qui utilise le traitement du langage naturel pour répondre aux requêtes des utilisateurs dans une interface Web de style chatbot.
Lorsque OpenAI, l'entreprise qui a créé ChatGPT, formait la troisième génération de son modèle (c'est-à-dire lui apprenait quel contenu générer en fonction des questions des utilisateurs), elle a consommé suffisamment d'électricité pour alimenter 120 foyers canadiens pendant une année entière.
Et la formation n’est qu’un aspect des émissions d’un modèle d’IA. Le contributeur le plus important au fil du temps est l'inférence de modèle, ou le processus d'exécution du modèle en direct. Les grands modèles de langage comme ChatGPT s'exécutent en permanence, en attendant qu'un utilisateur pose une question.
Les centres de données nécessaires à l'alimentation de ces modèles représentent actuellement trois pour cent de la consommation mondiale d'énergie, ils utilisent rarement des sources d'énergie renouvelables et, selon Forbes, émettent autant de CO2 comme l'ensemble du pays du Brésil.
C'est le cas du Dr Tushar Sharma, professeur adjoint à la Faculté d'informatique de Dalhousie.
Les recherches du Dr Sharma portent sur l'IA et le génie logiciel durables. En d’autres termes : il veille à ce que le code source qui construit et exécute ces modèles soit aussi propre et efficace que possible. Lorsqu’ils ne le sont pas, il les identifie et les corrige.
Le SMART Lab du Dr Sharma a récemment publié une étude dans Transactions ACM sur le génie logiciel et la méthodologie détaillant comment mesurer la consommation d'énergie d'un modèle d'IA à un niveau granulaire en identifiant les parties du code les plus gourmandes en énergie. (Pensez à la facture d'électricité de votre maison : elle indique la consommation d'énergie de la maison dans son ensemble, mais elle ne précise généralement pas quels appareils consomment le plus d'électricité.)
Dans une autre étude, son laboratoire a passé au crible des dizaines de couches de code dans les modèles d'IA pour « élaguer » les jetons qui n'étaient plus pertinents, utiles ou efficaces.
« Nous parcourons stratégiquement chaque couche de ces grands modèles et réduisons les calculs requis à l'intérieur », explique-t-il.
L’idée est d’entraîner les modèles plus efficacement, afin de réduire la consommation électrique et les émissions qui en résultent. « Nous essayons de ne pas consommer autant d'énergie ou de temps, ce qui entraîne une réduction de l'énergie ou des émissions de carbone », dit-il. « Le scénario idéal est que nous réduisions l'énergie nécessaire à la formation ou au fonctionnement de ces systèmes sans en sacrifier les avantages. »
Alors, l’IA en vaut-elle la peine ?
Le Dr Christian Blouin, doyen par intérim de la Faculté d'informatique de Dal, affirme que l'IA a le potentiel de transformer le monde tel que nous le connaissons, et que cela se produira, que nous rendions la technologie plus verte ou non.
« Nous avons la responsabilité de trouver une meilleure façon de résoudre les problèmes importants qui nécessitent moins de ressources », dit-il. « Alors que les gens découvrent de nouvelles façons d'exploiter l'IA, il est essentiel que nous développions l'informatique pour la rendre plus durable. »
Cet équilibre est particulièrement important pour les personnes qui travaillent dans le secteur climatique. Le Dr Anya Waite est PDG et directrice scientifique de l'Ocean Frontier Institute (OFI), un institut de recherche à Dal. OFI étudie le rôle changeant de l'océan dans notre système climatique et propose des solutions pour atténuer le changement climatique.
Le Dr Waite affirme que même si l’IA est un outil essentiel pour gérer les données et améliorer l’efficacité et la précision, elle devient insoutenable si nous finissons par dépenser plus d’énergie que ce que nous économisons grâce à son utilisation.
« Le travail du Dr Sharma est essentiel car il soutient l'efficacité de l'IA et réduit son coût et son empreinte carbone », dit-elle. « En fin de compte, sans un travail tel que celui du Dr Sharma, nous risquons de perdre la capacité de lancer de nouvelles innovations, et nous pourrions passer à côté des avantages majeurs qu'elles procurent. »
Un équilibre délicat
Le Dr Michael Freund est directeur du Clean Technologies Research Institute (CTRI) de Dal et il affirme que les utilisateurs ne sont pas toujours conscients de l'infrastructure et des opérations requises pour prendre en charge la technologie qu'ils utilisent.
« Une croissance responsable de l'IA doit tenir compte des facteurs environnementaux », déclare le Dr Freund. « Cela doit nécessiter un fonctionnement efficace, notamment un code plus efficace, une utilisation responsable et le couplage des centres de données à des sources d'énergie vertes. »
Il s’agit d’un équilibre délicat, reconnaît-il, car, comme OFI, le CTRI utilise souvent l’IA pour accroître l’efficacité de ses opérations.
« Les travaux de chercheurs tels que le Dr Sharma mettront en lumière la véritable valeur de l'IA et éclaireront les décisions sur la manière dont elle est développée et utilisée », dit-il.
Un avenir vert pour l’IA
La conversion des centres de données à l'utilisation de sources d'énergie renouvelables constitue un autre obstacle majeur, et le Dr Sharma affirme que des recherches comme la sienne, associées à l'énergie solaire, éolienne et hydroélectrique, rendront l'IA plus verte.
« Toutes ces techniques contribuent en fin de compte à atteindre cet objectif d'IA verte et à déterminer comment nous pouvons continuer à utiliser ces modèles d'apprentissage automatique, mais à un coût énergétique inférieur. »