Concentrons-nous sur les risques tangibles de l’IA plutôt que de spéculer sur son potentiel à constituer une menace existentielle
de Nuria Oliver, Bernhard Schölkopf, Florence d’Alché-Buc, Nicolò Cesa-Bianchi, Sepp Hochreiter et Serge Belongie, The Conversation
Au cours des derniers mois, l’intelligence artificielle (IA) est entrée dans la conversation mondiale à la suite de l’adoption généralisée d’outils génératifs basés sur l’IA tels que les chatbots et les programmes de génération automatique d’images. D’éminents scientifiques et technologues en intelligence artificielle ont fait part de leurs inquiétudes quant aux risques existentiels hypothétiques posés par ces développements.
Ayant travaillé dans l’IA pendant des décennies, cette montée en popularité et le sensationnalisme qui s’en est suivi nous ont pris par surprise. Notre objectif avec cet article n’est pas de contrarier, mais d’équilibrer la perception du public qui semble dominée de manière disproportionnée par les craintes de menaces existentielles spéculatives liées à l’IA.
Ce n’est pas à nous de dire qu’on ne peut pas ou qu’on ne doit pas s’inquiéter des risques plus exotiques. En tant que membres du Laboratoire européen pour l’apprentissage et les systèmes intelligents (ELLIS), une organisation ancrée dans la recherche axée sur l’apprentissage automatique, nous estimons qu’il est de notre devoir de mettre ces risques en perspective, en particulier dans le contexte d’organisations gouvernementales envisageant des actions réglementaires avec contribution des entreprises technologiques.
Qu’est-ce que l’IA ?
L’IA est une discipline de l’informatique ou de l’ingénierie qui a pris forme dans les années 1950. Son aspiration est de construire des systèmes informatiques intelligents, prenant comme référence l’intelligence humaine. De la même manière que l’intelligence humaine est complexe et diversifiée, de nombreux domaines de l’intelligence artificielle visent à émuler des aspects de l’intelligence humaine, de la perception au raisonnement, en passant par la planification et la prise de décision.
Selon le niveau de compétence, les systèmes d’IA peuvent être divisés en trois niveaux :
- L’IA étroite ou faible, qui fait référence aux systèmes d’IA capables d’effectuer des tâches spécifiques ou de résoudre des problèmes particuliers, de nos jours souvent avec un niveau de performance supérieur aux humains. Tous les systèmes d’IA d’aujourd’hui sont des IA étroites. Les exemples incluent les chatbots comme chatGPT, les assistants vocaux comme Siri et Alexa, les systèmes de reconnaissance d’images et les algorithmes de recommandation.
-
IA générale ou forte, qui fait référence aux systèmes d’IA qui présentent un niveau d’intelligence similaire à celui des humains, y compris la capacité de comprendre, d’apprendre et d’appliquer des connaissances dans un large éventail de tâches et d’incorporer des concepts tels que la conscience. L’IA générale est largement hypothétique et n’a pas été réalisée à ce jour. t
-
Super AI, qui fait référence aux systèmes d’IA dotés d’une intelligence supérieure à l’intelligence humaine sur toutes les tâches. Par définition, nous sommes incapables de comprendre ce type d’intelligence de la même manière qu’une fourmi n’est pas capable de comprendre notre intelligence. La super IA est un concept encore plus spéculatif que l’IA générale.
L’IA peut être appliquée à n’importe quel domaine, de l’éducation aux transports, en passant par la santé, le droit ou la fabrication. Ainsi, il modifie profondément tous les aspects de la société. Même sous sa forme « IA étroite », elle a un potentiel important pour générer une croissance économique durable et nous aider à relever les défis les plus urgents du 21e siècle, tels que le changement climatique, les pandémies et les inégalités.
Défis posés par les systèmes d’IA d’aujourd’hui
L’adoption de systèmes décisionnels basés sur l’IA au cours de la dernière décennie dans un large éventail de domaines, des médias sociaux au marché du travail, pose également des risques et des défis sociétaux importants qui doivent être compris et traités.
L’émergence récente de grands modèles de transformateurs préformés génératifs (GPT) hautement performants exacerbe bon nombre des défis existants tout en en créant de nouveaux qui méritent une attention particulière. L’ampleur et la rapidité sans précédent avec lesquelles ces outils ont été adoptés par des centaines de millions de personnes dans le monde exercent une pression supplémentaire sur nos systèmes sociétaux et réglementaires.
Certains défis d’une importance cruciale devraient être notre priorité :
- La manipulation du comportement humain par des algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations, la formation de l’opinion publique et les résultats des processus démocratiques.
- Préjugés algorithmiques et discrimination qui non seulement perpétuent mais exacerbent les stéréotypes, les schémas de discrimination, voire l’oppression.
- Le manque de transparence des deux modèles et de leurs usages.
- La violation de la vie privée et l’utilisation de quantités massives de données de formation sans consentement ni compensation de ses créateurs.
- L’exploitation des travailleurs annotant, formant et corrigeant les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement avec de maigres salaires.
- L’empreinte carbone massive des grands centres de données et des réseaux de neurones nécessaires à la construction de ces systèmes d’IA.
- Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles (images, textes, audios, vidéos…) sans correspondance avec le monde réel.
- La fragilité de ces grands modèles qui peuvent se tromper et se tromper.
- Le déplacement des emplois et des professions.
- La concentration du pouvoir entre les mains d’un oligopole de ceux qui contrôlent les systèmes d’IA d’aujourd’hui.
L’IA est-elle vraiment un risque existentiel pour l’humanité ?
Malheureusement, plutôt que de se concentrer sur ces risques tangibles, la conversation publique – notamment les récentes lettres ouvertes – s’est principalement concentrée sur les risques existentiels hypothétiques de l’IA.
Un risque existentiel fait référence à un événement ou scénario potentiel qui représente une menace pour l’existence continue de l’humanité avec des conséquences qui pourraient irréversiblement endommager ou détruire la civilisation humaine, et donc conduire à l’extinction de notre espèce. Un événement catastrophique mondial (tel qu’un impact d’astéroïde ou une pandémie), la destruction d’une planète habitable (en raison du changement climatique, de la déforestation ou de l’épuisement de ressources critiques comme l’eau et l’air pur), ou une guerre nucléaire mondiale sont des exemples de risques existentiels .
Notre monde est certainement confronté à un certain nombre de risques et les développements futurs sont difficiles à prévoir. Face à cette incertitude, nous devons hiérarchiser nos efforts. La possibilité lointaine d’une super-intelligence incontrôlée doit donc être considérée dans son contexte, et cela inclut le contexte de 3,6 milliards de personnes dans le monde qui sont très vulnérables en raison du changement climatique ; les quelque 1 milliard de personnes qui vivent avec moins de 1 dollar US par jour ; ou les 2 milliards de personnes touchées par les conflits. Ce sont de vrais êtres humains dont la vie est aujourd’hui en grave danger, un danger qui n’est certainement pas causé par la super IA.
Se concentrer sur un risque existentiel hypothétique détourne notre attention des graves défis documentés que l’IA pose aujourd’hui, n’englobe pas les différentes perspectives de la communauté de recherche au sens large et contribue à une panique inutile dans la population.
La société gagnerait sûrement à inclure la diversité, la complexité et la nuance nécessaires de ces problèmes, et à concevoir des solutions concrètes et coordonnées pour relever les défis actuels de l’IA, y compris la réglementation. Relever ces défis nécessite la collaboration et l’implication des secteurs les plus touchés de la société ainsi que l’expertise technique et de gouvernance nécessaire. Il est temps d’agir maintenant avec ambition et sagesse, et en coopération.