Naviguer entre les risques et les avantages de l’IA : leçons tirées de la nanotechnologie

Naviguer entre les risques et les avantages de l’IA : leçons tirées de la nanotechnologie

Il y a vingt ans, les nanotechnologies étaient l’intelligence artificielle de leur époque. Les détails spécifiques de ces technologies sont, bien entendu, un monde à part. Mais les défis posés par le développement responsable et bénéfique de chaque technologie sont étonnamment semblables. La nanotechnologie, qui concerne les technologies à l’échelle des atomes et des molécules individuelles, comportait même son propre risque existentiel sous la forme de « matière grise ».

Alors que des technologies potentiellement transformatrices basées sur l’IA continuent d’émerger et de gagner du terrain, il n’est pas évident que les acteurs du domaine de l’intelligence artificielle appliquent les leçons tirées de la nanotechnologie.

En tant que spécialistes de l’avenir de l’innovation, nous explorons ces parallèles dans un nouveau commentaire paru dans la revue Nature Nanotechnologie. Le commentaire examine également comment le manque d’engagement auprès d’une communauté diversifiée d’experts et de parties prenantes menace le succès à long terme de l’IA.

Enthousiasme et peur liés aux nanotechnologies

À la fin des années 1990 et au début des années 2000, la nanotechnologie est passée d’une idée radicale et quelque peu marginale à une acceptation générale. Le gouvernement américain et d’autres administrations du monde entier ont augmenté leurs investissements dans ce qui était considéré comme « la prochaine révolution industrielle ». Les experts gouvernementaux ont avancé des arguments convaincants sur la manière dont, selon les termes d’un rapport fondamental du Conseil national américain pour la science et la technologie, « façonner le monde atome par atome » transformerait positivement les économies, l’environnement et les vies.

Mais il y avait un problème. Dans la foulée de l’opposition du public aux cultures génétiquement modifiées, ainsi que des leçons tirées de l’ADN recombinant et du projet du génome humain, les acteurs du domaine des nanotechnologies craignaient de plus en plus qu’il puisse y avoir une réaction similaire contre la nanotechnologie si elle était mal gérée.

Ces préoccupations étaient bien fondées. Aux débuts de la nanotechnologie, des organisations à but non lucratif telles que le groupe ETC, les Amis de la Terre et d’autres se sont vigoureusement opposées aux affirmations selon lesquelles ce type de technologie était sûr, qu’il présenterait des inconvénients minimes et que les experts et les développeurs savaient ce qu’ils faisaient. L’époque a été marquée par des manifestations publiques contre la nanotechnologie et, ce qui est inquiétant, même par une campagne de bombardements menée par des extrémistes environnementaux ciblant les chercheurs en nanotechnologie.

Tout comme pour l’IA aujourd’hui, des inquiétudes ont été exprimées quant à ses effets sur l’emploi, alors qu’une nouvelle vague de compétences et d’automatisation balayait les parcours professionnels établis. Préfigurant également les préoccupations actuelles en matière d’IA, des inquiétudes concernant les risques existentiels ont commencé à émerger, notamment la possibilité de « nanobots » auto-répliquants convertissant toute la matière sur Terre en copies d’eux-mêmes, ce qui donnerait lieu à une « glu grise » englobant la planète. Ce scénario particulier a même été souligné par Bill Joy, cofondateur de Sun Microsystems, dans un article important du magazine Wired.

La plupart des risques potentiels associés à la nanotechnologie étaient cependant moins spéculatifs. Tout comme l’on s’intéresse de plus en plus aux risques plus immédiats associés à l’IA à l’heure actuelle, le début des années 2000 a vu l’accent mis sur l’examen des défis concrets liés à la garantie d’un développement sûr et responsable de la nanotechnologie. Ceux-ci comprenaient les impacts potentiels sur la santé et l’environnement, les questions sociales et éthiques, la réglementation et la gouvernance, ainsi qu’un besoin croissant de collaboration du public et des parties prenantes.

Le résultat a été un paysage profondément complexe autour du développement des nanotechnologies, qui promettait des progrès incroyables mais était en proie à l’incertitude et au risque de perdre la confiance du public si les choses tournaient mal.

Comment la nanotechnologie a réussi

L’un d’entre nous, Andrew Maynard, a été à l’avant-garde de la lutte contre les risques potentiels de la nanotechnologie au début des années 2000 en tant que chercheur, coprésident du groupe de travail interinstitutions sur les implications environnementales et sanitaires de la nanotechnologie et conseiller scientifique en chef du Centre international Woodrow Wilson pour la recherche. Projet de chercheurs sur les technologies émergentes.

À l’époque, travailler au développement responsable des nanotechnologies revenait à jouer avec les défis sanitaires, environnementaux, sociaux et de gouvernance présentés par cette technologie. Pour chaque solution, il semblait y avoir un nouveau problème.

Pourtant, en collaborant avec un large éventail d’experts et de parties prenantes – dont beaucoup n’étaient pas des autorités en matière de nanotechnologie mais qui ont apporté des perspectives et des idées critiques – le domaine a produit des initiatives qui ont jeté les bases du développement de la nanotechnologie. Cela comprenait des partenariats multipartites, des normes consensuelles et des initiatives menées par des organismes mondiaux tels que l’Organisation de coopération et de développement économiques.

En conséquence, bon nombre des technologies sur lesquelles les gens s’appuient aujourd’hui s’appuient sur les progrès de la science et de l’ingénierie à l’échelle nanométrique. Même certaines des avancées de l’IA reposent sur du matériel basé sur la nanotechnologie.

Aux États-Unis, une grande partie de ce travail collaboratif a été menée par la National Nanotechnology Initiative, une initiative interinstitutionnelle. Au début des années 2000, l’initiative a réuni des représentants de l’ensemble du gouvernement pour mieux comprendre les risques et les avantages de la nanotechnologie. Il a permis de réunir un large éventail d’universitaires, de chercheurs, de développeurs, de praticiens, d’éducateurs, de militants, de décideurs politiques et d’autres parties prenantes pour contribuer à élaborer des stratégies visant à garantir des technologies à l’échelle nanométrique bénéfiques sur les plans social et économique.

En 2003, la loi sur la recherche et le développement en nanotechnologie du 21e siècle est devenue loi et a codifié davantage cet engagement en faveur de la participation d’un large éventail de parties prenantes. Les années à venir ont vu un nombre croissant d’initiatives financées par le gouvernement fédéral – notamment le Centre pour la nanotechnologie et la société de l’Arizona State University (où l’un d’entre nous faisait partie du conseil des visiteurs) – qui ont cimenté le principe d’un large engagement autour des technologies avancées émergentes.

Des experts uniquement à table

Ces efforts, ainsi que d’autres similaires partout dans le monde, ont joué un rôle essentiel pour garantir l’émergence d’une nanotechnologie bénéfique et responsable. Pourtant, malgré des aspirations similaires autour de l’IA, ces mêmes niveaux de diversité et d’engagement font défaut. En comparaison, le développement de l’IA pratiqué aujourd’hui est beaucoup plus exclusif. La Maison Blanche a donné la priorité aux consultations avec les PDG des sociétés d’IA, et les auditions du Sénat ont fait appel de préférence à des experts techniques.

Selon les enseignements tirés de la nanotechnologie, nous pensons que cette approche est une erreur. Même si le grand public, les décideurs politiques et les experts extérieurs au domaine de l’IA ne comprennent peut-être pas pleinement les moindres détails de la technologie, ils sont souvent pleinement capables d’en comprendre les implications. Plus important encore, ils apportent une diversité d’expertises et de perspectives essentielles au développement réussi d’une technologie avancée comme l’IA.

C’est pourquoi, dans notre commentaire sur Nature Nanotechnology, nous recommandons de tirer les leçons de la nanotechnologie, en s’engageant tôt et souvent avec des experts et des parties prenantes qui ne connaissent peut-être pas les détails techniques et scientifiques derrière l’IA, mais qui apportent néanmoins des connaissances et des idées essentielles pour garantir le bon fonctionnement de la technologie. succès.

L’horloge tourne

L’intelligence artificielle pourrait être la technologie la plus transformatrice de mémoire d’homme. Développé intelligemment, il pourrait changer positivement la vie de milliards de personnes. Mais cela ne se produira que si la société applique les leçons des transitions technologiques avancées passées, comme celle entraînée par la nanotechnologie.

Comme lors des années formatrices de la nanotechnologie, il est urgent de relever les défis de l’IA. Les premiers jours d’une transition technologique avancée ont tracé la trajectoire de son évolution au cours des décennies à venir. Et avec le rythme récent des progrès de l’IA, cette fenêtre se ferme rapidement.

Ce n’est pas seulement l’avenir de l’IA qui est en jeu. L’intelligence artificielle n’est qu’une des nombreuses technologies émergentes transformatrices. Les technologies quantiques, les manipulations génétiques avancées, les neurotechnologies et bien d’autres encore arrivent rapidement. Si la société ne tire pas les leçons du passé pour gérer avec succès ces transitions imminentes, elle risque de perdre les promesses qu’elles contiennent et de se retrouver confrontée à la possibilité que chacune d’elles cause plus de mal que de bien.