Une prise de conscience partagée pourrait conduire à des machines intelligentes plus écologiques, plus éthiques et plus utiles
Le déploiement futur de l’IA et des robots dans notre travail et notre vie quotidienne, des véhicules entièrement automatisés aux robots de livraison et aux assistants IA, pourrait se faire soit en créant des agents de plus en plus performants capables d’effectuer de nombreuses tâches, soit des agents plus simples et plus restreints conçus pour des tâches spécifiques.
Le premier est le plus souvent mis en avant : les systèmes d’IA sont progressivement formés avec des compétences généralisées dans de nombreux domaines, avec le développement éventuel d’une intelligence artificielle générale, qui est finalement liée à la possibilité – ou à la peur – de voir des entités artificielles acquérir une conscience.
Cela soulève plusieurs inquiétudes. Un système automatisé de reconnaissance faciale peut être acceptable pour faciliter le contrôle aux frontières ou le traitement des demandes d’asile dans certaines limites et avec des critères de sécurité élevés appropriés.
Doter de telles capacités une IA généraliste, capable également de parler et de prendre des décisions en matière de santé, d’éducation ou de défense, est une menace. En outre, l’exploitation d’un système généraliste entraîne des coûts énergétiques et d’émissions importants, comme en témoignent les architectures génératives telles que les grands modèles de langage.
La vision alternative est défendue par les chercheurs du consortium du projet EMERGE dans leur récente publication dans la revue Systèmes intelligents avancésLes auteurs soutiennent que lors de l’orchestration de nombreuses actions simultanées ou séquentielles dans différents systèmes d’IA spécialisés, la présence de la conscience en tant que mécanisme d’intégration privé au sein de chaque système n’est ni essentielle ni suffisante.
Ils avancent que les systèmes d’IA spécialisés, adaptés à des tâches spécifiques, peuvent être plus fiables, plus économes en énergie, plus éthiques et globalement plus efficaces que l’intelligence générale. En même temps, ces systèmes posent surtout un problème de coordination efficace entre les différents systèmes et les humains, pour lequel, selon eux, des moyens plus simples de partage de la connaissance suffisent.
« Ce qu’il faut, c’est la capacité de partager de manière sélective les états pertinents avec d’autres systèmes d’IA afin de faciliter la coordination et la coopération – ou, en abrégé, une conscience partagée collaborative. Le mot « conscience » étant parfois utilisé comme synonyme de conscience, il est important de souligner que la conscience collaborative est très différente de la conscience », explique Ophelia Deroy, professeure de philosophie et de neurosciences à l’université Ludwig Maximilian de Munich, en Allemagne.
Premièrement, la conscience partagée n’est pas, par définition, un état privé. Si un essaim de robots a une conscience partagée de l’ensemble de l’usine, cette conscience partagée ne peut pas se réduire à la représentation de l’espace que possède chaque agent individuel. C’est une propriété émergente. Deuxièmement, la conscience partagée ne peut être que transitoire, partageant des états avec d’autres uniquement lorsqu’il est nécessaire de coordonner des objectifs individuels ou de coopérer sur un objectif commun. Troisièmement, la conscience partagée peut être sélective quant aux états qu’il est pertinent de partager avec d’autres.
Et tandis que les conceptions dominantes de la conscience signifient qu'elle est intégrée ou unifiée, la conscience partagée peut être répartie entre différents agents : un système peut avoir besoin de partager des informations spatiales avec un autre système, des niveaux d'énergie avec son contrôleur et de partager d'autres aspects tels que sa confiance avec d'autres systèmes ou leurs utilisateurs.
« La connaissance partagée permet aux opérateurs humains de surveiller et de contrôler plus facilement les agents artificiels. Elle permet également aux systèmes de mieux fonctionner ensemble, même s'ils ont été conçus par des entreprises différentes. La connaissance partagée pourrait aider les véhicules autonomes à éviter les collisions, les robots logistiques à coordonner la livraison des colis ou les systèmes d'IA à analyser les antécédents médicaux complexes des patients pour proposer des recommandations de traitement utiles », explique Sabine Hauert, professeure d'ingénierie en essaim à l'université de Bristol, au Royaume-Uni.
Fourni par EMERGE