Les scientifiques utilisent des scanners cérébraux et l'IA pour "décoder" les pensées

Les scientifiques utilisent des scanners cérébraux et l’IA pour « décoder » les pensées

Les scans de la machine IRMf ont permis aux scientifiques de cartographier comment les significations et les phrases ont provoqué des réponses dans différentes régions du cerveau.

Les scientifiques ont déclaré lundi qu’ils avaient trouvé un moyen d’utiliser les scanners cérébraux et la modélisation de l’intelligence artificielle pour transcrire « l’essentiel » de ce que les gens pensent, dans ce qui a été décrit comme une étape vers la lecture de l’esprit.

Alors que l’objectif principal du décodeur de langage est d’aider les personnes qui ont perdu la capacité de communiquer, les scientifiques américains ont reconnu que la technologie soulevait des questions sur la « vie privée mentale ».

Dans le but d’apaiser ces craintes, ils ont effectué des tests montrant que leur décodeur ne pouvait pas être utilisé sur quiconque ne l’avait pas autorisé à être formé sur leur activité cérébrale pendant de longues heures à l’intérieur d’un scanner d’imagerie par résonance magnétique fonctionnelle (fMRI).

Des recherches antérieures ont montré qu’un implant cérébral peut permettre aux personnes qui ne peuvent plus parler ou taper d’épeler des mots ou même des phrases.

Ces « interfaces cerveau-ordinateur » se concentrent sur la partie du cerveau qui contrôle la bouche lorsqu’elle essaie de former des mots.

Alexander Huth, neuroscientifique à l’Université du Texas à Austin et co-auteur d’une nouvelle étude, a déclaré que le décodeur de langage de son équipe « fonctionne à un niveau très différent ».

« Notre système fonctionne vraiment au niveau des idées, de la sémantique, du sens », a déclaré Huth lors d’une conférence de presse en ligne.

Il s’agit du premier système capable de reconstruire un langage continu sans implant cérébral invasif, selon l’étude publiée dans la revue Neurosciences naturelles.

« Plus profond que le langage »

Pour l’étude, trois personnes ont passé un total de 16 heures à l’intérieur d’une machine IRMf à écouter des histoires narratives parlées, principalement des podcasts tels que Modern Love du New York Times.

Cela a permis aux chercheurs de cartographier comment les mots, les phrases et les significations incitaient les réponses dans les régions du cerveau connues pour traiter le langage.

Ils ont introduit ces données dans un modèle de langage de réseau neuronal qui utilise GPT-1, le prédécesseur de la technologie d’intelligence artificielle déployée plus tard dans le très populaire ChatGPT.

Le modèle a été formé pour prédire comment le cerveau de chaque personne réagirait à la parole perçue, puis affiner les options jusqu’à ce qu’il trouve la réponse la plus proche.

Pour tester la précision du modèle, chaque participant a ensuite écouté une nouvelle histoire dans la machine IRMf.

Le premier auteur de l’étude, Jerry Tang, a déclaré que le décodeur pouvait « récupérer l’essentiel de ce que l’utilisateur entendait ».

Par exemple, lorsque la participante a entendu la phrase « Je n’ai pas encore mon permis de conduire », le modèle est revenu avec « elle n’a même pas encore commencé à apprendre à conduire ».

Le décodeur a eu du mal avec des pronoms personnels tels que « je » ou « elle », ont admis les chercheurs.

Mais même lorsque les participants inventaient leurs propres histoires – ou visionnaient des films muets – le décodeur était toujours capable de saisir « l’essentiel », ont-ils déclaré.

Cela a montré que « nous décodons quelque chose qui est plus profond que le langage, puis le convertissons en langage », a déclaré Huth.

Parce que le balayage IRMf est trop lent pour capturer des mots individuels, il recueille un « méli-mélo, une agglomération d’informations en quelques secondes », a déclaré Huth.

« Ainsi, nous pouvons voir comment l’idée évolue, même si les mots exacts se perdent. »

Avertissement éthique

David Rodriguez-Arias Vailhen, professeur de bioéthique à l’Université espagnole de Grenade non impliqué dans la recherche, a déclaré que cela allait au-delà de ce qui avait été réalisé par les interfaces cerveau-ordinateur précédentes.

Cela nous rapproche d’un avenir dans lequel les machines sont « capables de lire dans les pensées et de transcrire la pensée », a-t-il déclaré, avertissant que cela pourrait éventuellement se produire contre la volonté des gens, comme lorsqu’ils dorment.

Les chercheurs ont anticipé ces préoccupations.

Ils ont effectué des tests montrant que le décodeur ne fonctionnait pas sur une personne s’il n’avait pas déjà été entraîné sur sa propre activité cérébrale particulière.

Les trois participants ont également pu facilement déjouer le décodeur.

En écoutant l’un des podcasts, les utilisateurs devaient compter par sept, nommer et imaginer des animaux ou raconter une histoire différente dans leur tête. Toutes ces tactiques ont « saboté » le décodeur, ont déclaré les chercheurs.

Ensuite, l’équipe espère accélérer le processus afin de pouvoir décoder les scanners cérébraux en temps réel.

Ils ont également appelé à des réglementations pour protéger la vie privée mentale.

« Notre esprit a jusqu’à présent été le gardien de notre vie privée », a déclaré le bioéthicien Rodriguez-Arias Vailhen.

« Cette découverte pourrait être un premier pas vers la compromission de cette liberté à l’avenir. »