Un expert juridique s'interroge sur les implications des droits de l'homme pour les futures technologies de lecture de pensées

Un expert juridique s’interroge sur les implications des droits de l’homme pour les futures technologies de lecture de pensées

Crédit : Pixabay/CC0 Domaine public

Les avancées récentes utilisant l’intelligence artificielle pour extraire des pensées significatives des ondes cérébrales ont préoccupé les défenseurs des droits de l’homme et de la vie privée, qui affirment que la technologie se développe à un rythme plus rapide que la loi. C’est le premier article qui considère si l’Australie est préparée pour les applications potentielles des neurotechnologies.

Les avancées neurotechnologiques ont attiré l’attention des spécialistes des droits de l’homme, des législatures nationales et des organisations telles que le Conseil des droits de l’homme des Nations Unies, suscitant un débat intense sur la question de savoir si les cadres juridiques nationaux et internationaux actuels doivent être modifiés pour traiter les problèmes émergents, tels que les droits de l’homme et la vie privée.

Cependant, en Australie, le sujet de la neurotechnologie et de son impact sur les droits de l’homme n’a pas été abordé, et bien que l’éthique ait été prise en compte, il n’y a pas encore eu de focalisation sur le droit des droits de l’homme.

L’éminent expert en droit des neurotechnologies, le Dr Allan McCay de la faculté de droit de Sydney, a déclaré que la Déclaration universelle des droits de l’homme, rédigée avant l’apparition des neurotechnologies, pourrait ne pas tenir pleinement compte de ces capacités technologiques.

Il demande que la neurotechnologie soit à l’ordre du jour des juristes, des organismes de réforme du droit, des organisations de défense des droits de l’homme et, finalement, des parlements en Australie.

Cela a été décrit dans le premier article pour nous demander si nous sommes préparés aux applications potentielles des neurotechnologies et ce que l’Australie devrait faire face aux défis des droits de l’homme. Rédigé par le Dr McCay, « Neurotechnology and Human Rights: Developments Overseas and the Challenge for Australia » est publié dans le Journal australien des droits de l’homme.

« Bien qu’il faille reconnaître les impacts positifs de la neurotechnologie – comme l’aide aux personnes handicapées et le traitement des maladies chroniques – les profondes violations possibles des droits de l’homme doivent être abordées. Compte tenu du rythme des progrès technologiques, il se peut que les législatures devraient de manière proactive façonner la loi plutôt que d’attendre passivement que les tribunaux règlent les problèmes », déclare le Dr Allan McCay.

Le Dr McCay a déclaré que l’ensemble du domaine est « sous-théorisé » en Australie et « manque de réponse de la part des institutions de réglementation / des droits de l’homme ».

« Alors que les humains continuent de fusionner avec les machines, il est important de considérer l’inconvénient de reporter le débat sur la neurotechnologie. »

La surveillance directe de l’activité neuronale soulève une série de problèmes, le plus flagrant étant la confidentialité. Bien que nous ayons perdu une grande partie de notre vie privée en ligne, l’accès neuronal direct est plus troublant que les problèmes de confidentialité liés aux données recueillies à partir du comportement des médias sociaux.

Comme démontré récemment dans une étude de l’Université du Texas, les participants à un scanner d’imagerie par résonance magnétique fonctionnelle (IRMf) ont écouté des podcasts, générant des données qui sont utilisées pour former un modèle visant à décoder leur cerveau.

Une fois le modèle formé, les participants sont retournés sous le scanner et ont écouté une nouvelle histoire, qui n’avait pas été utilisée pour générer des données de formation. Pendant qu’ils écoutaient, le scanner IRMf enregistrait les niveaux d’oxygénation du sang dans certaines parties de leur cerveau.

Les chercheurs ont ensuite utilisé un grand modèle de langage, tel que GPT-4 d’OpenAI et Bard de Google, pour faire correspondre les modèles d’activité cérébrale aux mots et aux phrases que les participants avaient entendus.

Pour simplifier, le Dr Shinji Nishimoto, un neuroscientifique de l’Université d’Osaka qui n’a pas participé à la recherche au Texas, a déclaré que « l’activité cérébrale est une sorte de signal crypté, et les modèles de langage fournissent des moyens de le déchiffrer ».

Le Dr McCay a déclaré que nous devons envisager la surveillance du cerveau et l’intervention cérébrale directe dans les contextes de la justice pénale, de la politique, du lieu de travail et des consommateurs. Par exemple, serait-ce une violation des droits de l’homme de surveiller le cerveau d’un suspect lors d’un interrogatoire de police ?

La société américaine Brainwave Science commercialise déjà un produit d’interrogation neurotechnologique.

Le Dr McCay a dit que certains le feraient et soutiennent que l’utilisation des neurotechnologies de l’IA et des dispositifs cérébraux implantables, même ceux qui interviennent dans le cerveau des délinquants pour modifier leur comportement, est une chose positive. Mais cela est déconcertant du point de vue des droits de l’homme.

À l’étranger, des initiatives ont été prises pour résoudre ces problèmes avec la formation de groupes de défense des droits de l’homme, notamment la Neurorights Foundation et le Minding Rights Network . Les groupes doutent de la capacité du cadre international des droits de l’homme à relever les défis de la neurotechnologie.

La Fondation Neurorights fait pression pour que les entreprises, les gouvernements et les Nations Unies reconnaissent les droits à la vie privée mentale, à l’identité personnelle, au libre arbitre, à un accès équitable à l’augmentation mentale et à la protection contre les préjugés.

Le Dr McCay a déclaré : « Un débat public pourrait être utile pour avertir ceux qui produisent des neurotechnologies que des changements juridiques arrivent. Comme l’ont réalisé plusieurs institutions à l’étranger, la discussion doit avoir lieu maintenant.