Les ingénieurs de l'IA ne se sentent pas autorisés à lutter contre la crise de durabilité, suggèrent de nouvelles recherches

Les ingénieurs de l'IA ne se sentent pas autorisés à lutter contre la crise de durabilité, suggèrent de nouvelles recherches

Une enquête auprès des 23 praticiens de l'apprentissage automatique (ML) à travers le Royaume-Uni et d'autres parties du monde, dirigée par King's College de Londres, a souligné les sentiments d'aliénation de la durabilité des modèles, suggérant que les références environnementales n'étaient pas considérées comme faisant partie de la performance d'une IA.

Les répondants ont répondu avec des commentaires tels que « En tant qu'individu, je suppose que vous ne pouvez pas vraiment faire » malgré un nombre croissant d'outils pour suivre l'impact environnemental de l'IA, ce qui suggère que plus de choses doivent être faites pour permettre aux développeurs de créer des modèles plus verts.

Le Dr Georgia Panagiodidou, auteur de document et maître de conférences en visualisation, a déclaré: « Nous mettons en évidence un manque fondamental d'agence au cœur de l'IA et de la conversation en matière de durabilité. Malgré les outils de suivi et les informations sur l'effet de la ML sur l'environnement, de nombreux développeurs ont l'impression que leur industrie n'apprécie pas la durabilité et ce qu'elles ne sont pas importantes.

« Ce travail ne consiste pas à dénigrer les individus mais à travailler avec eux pour identifier les bloqueurs pour réaliser des changements dans l'espace. En intégrant la pensée durable dans toute la pratique de l'IA, nous pouvons aider à aborder le manque de connaissances que les praticiens se sentent et leur donner les outils pour prendre des décisions durables face à la crise climatique. »

ML, un sous-ensemble de l'IA, a connu un déploiement important ces dernières années alors que les outils de l'IA jouent un rôle plus important dans l'économie mondiale. Cela a atteint un coût environnemental important. Les émissions mondiales de serre de l'industrie des TIC ont doublé au cours de la dernière décennie, et les besoins en ressources de la formation des modèles ML des centres de données ont retardé la retraite des centrales au charbon.

Pour faire face aux préoccupations concernant les trois émissions de la portée-trois des entreprises TIC, la formation de l'IA, des outils tels que le codecarbon ont été développés pour estimer les émissions produites lors de l'exécution de code ou de formation d'IA, donnant aux développeurs une fenêtre sur la durabilité de leurs modèles.

Bien que la recherche analysant les informations fournies par les compteurs intelligents influence la façon dont les consommateurs prennent des décisions plus durables ont été effectuées, peu de travaux ont été menés sur l'impact des outils de fin d'écos sur les décisions des praticiens de la ML – jusqu'à présent.

Les participants à l'article, présentés lors de la conférence ACM 2025 sur l'équité, la responsabilité et la transparence (FACCT 2025), ont mis en évidence les approches techniques, individuelles, réglementaires et culturelles pour couper les émissions de carbone, telles que l'utilisation d'outils de rétroaction et nécessitant des lieux de travail pour rationaliser la consommation d'énergie dans la formation d'IA.

Malgré cela, la plupart ont estimé qu'ils avaient la responsabilité limitée de faire face aux préoccupations environnementales et que le blâme résidait avec de grands fournisseurs de technologies de grands modèles de langue comme Chatgpt.

De plus, les participants ont décrit comment leurs propres domaines, qu'ils soient universitaires ou industriels, considéraient la durabilité comme « pas l'un de nos résultats, ce n'est pas une métrique de performance » et était secondaire dans les cultures qui précipitaient une précision et une vitesse élevées de modèle dans la production d'articles et de nouveaux produits.

Un doctorat. L'élève a décrit la durabilité en prenant un siège arrière dans l'environnement compétitif de la recherche de publication. « J'ai besoin de faire mes recherches et si je devais le dire à mon superviseur non, je ne vais pas utiliser le HPC (ordinateur haute performance) parce que je me sens mal pour les Penguins en Antarctique, alors cela ne serait pas si bien. »

Sinem Görücü, un doctorat. Le candidat de King's et le premier auteur du journal, a déclaré: « Les entretiens qualitatifs étaient essentiels pour saisir comment chaque individu pensait de leur travail, et nous avons été surpris de trouver des gens si désagréés. C'était un groupe auto-sélectif de personnes soucieuses du climat, mais qui a eu du mal à être climatique en tant que développeurs.

« L'IA responsable nous a appris que quelque chose à la périphérie de la conversation peut devenir profondément ancré dans la pratique; notre recherche souligne qu'il y a du travail à faire pour répéter cette réussite avec la durabilité. »

À l'avenir, l'équipe espère faire une grande étude quantitative des perceptions de la durabilité environnementale des praticiens de l'apprentissage automatique.