La conscience peut-elle exister dans une simulation informatique ?

La conscience peut-elle exister dans une simulation informatique ?

Serait-il souhaitable que l’intelligence artificielle développe une conscience ? Pas vraiment, pour diverses raisons, selon le Dr Wanja Wiese de l’Institut de philosophie II de l’Université de la Ruhr à Bochum, en Allemagne.

Dans un essai, il examine les conditions qui doivent être réunies pour que la conscience existe et compare le cerveau à l'ordinateur. Il a identifié des différences significatives entre les humains et les machines, notamment dans l'organisation des zones cérébrales ainsi que des unités de mémoire et de calcul.

« La structure causale pourrait être une différence pertinente pour la conscience », soutient-il. L'essai a été publié le 26 juin 2024 dans la revue «Études philosophiques.« 

Deux approches

Lorsqu’on considère la possibilité de la conscience dans les systèmes artificiels, il existe au moins deux approches différentes.

Une approche consiste à se demander quelle est la probabilité que les systèmes d’IA actuels soient conscients et que faut-il ajouter aux systèmes existants pour augmenter la probabilité qu’ils soient capables de conscience ? Une autre approche consiste à se demander quels types de systèmes d’IA sont peu susceptibles d’être conscients et comment pouvons-nous exclure la possibilité que certains types de systèmes deviennent conscients ?

Dans ses recherches, Wanja Wiese poursuit la deuxième approche.

« Mon objectif est de contribuer à deux objectifs : d’une part, réduire le risque de créer par inadvertance une conscience artificielle. C’est un résultat souhaitable, car on ne sait pas encore clairement dans quelles conditions la création d’une conscience artificielle est moralement autorisée. D’autre part, cette approche devrait contribuer à exclure la tromperie par des systèmes d’IA apparemment conscients qui ne le sont qu’en apparence », explique-t-il.

C’est particulièrement important, car il existe déjà des indices montrant que de nombreuses personnes qui interagissent souvent avec des chatbots attribuent une conscience à ces systèmes. Dans le même temps, les experts s’accordent à dire que les systèmes d’IA actuels ne sont pas conscients.

Le principe de l'énergie libre

Dans son essai, Wiese se demande : « Comment pouvons-nous déterminer si des conditions essentielles à la conscience existent, qui ne sont pas remplies par les ordinateurs classiques, par exemple ? » Une caractéristique commune à tous les animaux conscients est qu’ils sont vivants.

Cependant, être en vie est une condition tellement stricte que beaucoup ne la considèrent pas comme une condition plausible pour la conscience. Mais peut-être que certaines conditions nécessaires à la vie le sont aussi à la conscience ?

Dans son article, Wanja Wiese fait référence au principe de l'énergie libre du neuroscientifique britannique Karl Friston. Ce principe indique : Les processus qui assurent la pérennité d'un système auto-organisé tel qu'un organisme vivant peuvent être décrits comme un type de traitement de l'information.

Chez l'homme, ces processus régulent des paramètres vitaux tels que la température corporelle, la teneur en oxygène du sang et la glycémie. Le même type de traitement de l'information pourrait également être réalisé dans un ordinateur. Cependant, l'ordinateur ne régulerait pas la température ou la glycémie, mais se contenterait de simuler ces processus.

La plupart des différences ne concernent pas la conscience

Le chercheur suggère que la même chose pourrait être vraie pour la conscience. En supposant que la conscience contribue à la survie d’un organisme conscient, alors, selon le principe de l’énergie libre, les processus physiologiques qui contribuent au maintien de l’organisme doivent conserver une trace que l’expérience consciente laisse derrière elle et qui peut être décrite comme un processus de traitement de l’information.

On peut appeler cela le « corrélat computationnel de la conscience ». Cela peut également être réalisé dans un ordinateur. Cependant, il est possible que des conditions supplémentaires doivent être remplies dans un ordinateur pour que celui-ci puisse non seulement simuler mais aussi reproduire l'expérience consciente.

Dans son article, Wanja Wiese analyse donc les différences entre la manière dont les créatures conscientes réalisent le corrélat computationnel de la conscience et la manière dont un ordinateur le réaliserait dans une simulation. Il soutient que la plupart de ces différences ne concernent pas la conscience. Par exemple, contrairement à un ordinateur électronique, notre cerveau est très économe en énergie. Mais il est peu plausible que cela soit une condition nécessaire à la conscience.

Une autre différence réside dans la structure causale des ordinateurs et du cerveau : dans un ordinateur classique, les données doivent toujours être chargées en mémoire, puis traitées dans l’unité centrale de traitement, et enfin stockées à nouveau dans la mémoire. Dans le cerveau, cette séparation n’existe pas, ce qui signifie que la connexion causale des différentes zones du cerveau prend une forme différente. Wanja Wiese soutient que cela pourrait être une différence entre le cerveau et les ordinateurs classiques qui pourrait avoir une incidence sur la conscience.

« À mon avis, la perspective offerte par le principe de l'énergie libre est particulièrement intéressante, car elle nous permet de décrire les caractéristiques des êtres vivants conscients de telle manière qu'elles peuvent en principe être réalisées dans des systèmes artificiels, mais ne sont pas présentes dans de grandes classes de systèmes artificiels (comme les simulations informatiques) », explique Wanja Wiese.

« Cela signifie que les conditions préalables à la conscience dans les systèmes artificiels peuvent être saisies de manière plus détaillée et plus précise. »