Apprendre à des robots à apprendre à d'autres robots

Dix-neuf chercheurs affirment que l’IA n’est pas sensible – pas encore

Crédit : CC0 Domaine public

Il y a une blague sur la fille qui demande à son père pourquoi il parle si doucement dans la maison. « Parce qu’il y a partout une intelligence artificielle qui écoute ce que nous disons », répond le papa. La fille rit, le père rit. Et Alexa rit.

L’intelligence artificielle semble s’injecter dans de plus en plus d’aspects de nos vies. Et comme les cerveaux de l’IA gagnent l’équivalent d’un million de doctorats tout en absorbant des milliards de bits de données et génèrent à leur tour des réponses avec un ton et une attitude engageants qui semblent aussi simples et humains que votre vieux professeur d’université préféré, certains se sentent obligés de demander : les ordinateurs deviennent-ils sensibles ?

Un cynique répondrait : « Bien sûr que non. Les ordinateurs peuvent résoudre en quelques secondes des problèmes qui prendraient des générations à l’humanité pour les résoudre, mais ils ne peuvent pas ressentir l’amour et la douleur, ils ne peuvent pas voir et apprécier la lune et les étoiles, ils ne peuvent pas sentir l’odeur. le café qu’on renverse sur le clavier. »

Mais d’autres suggèrent que nous devons définir plus clairement ce que nous considérons comme sensible. Pourrait-il y avoir différents degrés de conscience tels que nous les comprenons ? Y a-t-il des éléments de l’expérience subjective qui se chevauchent entre les humains, les animaux et les machines intelligentes ?

Dix-neuf neuroscientifiques des États-Unis, d’Angleterre, d’Israël, du Canada, de France et d’Australie ont exploré la question dans un rapport publié sur le serveur de prépublication. arXiv 22 août.

Un scientifique principal d’OpenAI, qui a développé ChatGPT, a émis l’hypothèse l’année dernière que les réseaux d’IA avancés pourraient être « légèrement conscients ». Un an plus tôt, un scientifique de Google avait été licencié après avoir déclaré que LaMDA, un précurseur du chatbot Bard, était sensible.

Mais après une analyse approfondie de nombreuses théories de la conscience, les auteurs du rapport « Consciousness in Artificial Intelligence : Insights from the Science of Consciousness » ont conclu que les systèmes d’IA ne sont pas conscients ; au moins pas encore.

Cependant, ils ont défini des approches que les futurs enquêteurs feraient bien d’envisager.

« Notre analyse suggère qu’aucun système d’IA actuel n’est conscient », a déclaré Patrick Butlin, l’un des principaux auteurs du rapport, « mais suggère également qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui satisfont à ces indicateurs ».

Ils ont réduit les théories de la conscience à six, qui, selon eux, sont des indicateurs convaincants d’entités conscientes.

Un exemple est la théorie du traitement récurrent, selon laquelle le cerveau traite les informations via des boucles de rétroaction. Grâce à de telles boucles, le cerveau peut s’adapter aux circonstances changeantes, ajuster ses perceptions et prendre des décisions plus éclairées. Un tel comportement itératif est essentiel à la formation de la mémoire et à l’acquisition de nouvelles connaissances.

Un autre concept clé est la théorie des ordres supérieurs, résumée par certains comme « conscience d’être conscient ».

« Les théories d’ordre supérieur se distinguent des autres par l’accent qu’elles mettent sur l’idée selon laquelle pour qu’un état mental soit conscient, le sujet doit être conscient d’être dans cet état mental, et par la manière dont elles proposent d’en rendre compte. sensibilisation », a déclaré Butlin.

Un troisième facteur est la théorie de l’espace de travail global. Cela postule que la conscience est atteinte lorsque l’information devient globalement accessible dans le cerveau. Les informations ne se limitent pas aux entrées sensorielles individuelles, mais sont contenues dans un centre mondial disponible pour divers processus cognitifs internes.

Les outils proposés pour dissuader la sensibilité « nous offrent la meilleure méthode actuellement disponible pour évaluer si les systèmes d’IA sont susceptibles d’être conscients », a déclaré Butlin.

« Nous publions ce rapport en partie parce que nous prenons au sérieux la possibilité que des systèmes d’IA conscients puissent être construits à relativement court terme, au cours des prochaines décennies », a déclaré Butlin. « Ces perspectives soulèvent de profondes questions morales et sociales. »