Un «neuroshield» pourrait protéger les citoyens de l’intelligence artificielle, selon un expert en neurosciences
Il est urgent de soutenir les citoyens avec un système d’autodéfense numérique, affirme un expert en neurosciences du Baker Institute of Public Policy de l’Université Rice.
Des mesures pour réglementer l’intelligence artificielle (IA) avancée et les médias sociaux améliorés par l’IA sont nécessaires pour protéger les gens contre le « piratage » par l’IA de nos relations interpersonnelles et de notre intelligence collective, déclare Harris Eyre, chercheur en santé cérébrale au Baker Institute.
« Bien qu’une telle technologie rapproche le monde entier de nos appareils et offre de nombreuses possibilités d’épanouissement individuel et communautaire, elle peut également déformer la réalité et créer de fausses illusions », écrit-il dans le nouveau rapport. « En diffusant la désinformation et la mésinformation, les réseaux sociaux et l’IA posent un défi direct au fonctionnement de nos démocraties. »
Actuellement, les contrefaçons profondes suscitent déjà des inquiétudes alors que le pays se dirige vers une saison électorale. Eyre soutient qu’il est urgent de concevoir des politiques basées sur les neurosciences pour soutenir les citoyens contre l’IA, comme un « neuroshield ».
« La façon dont nous interprétons la réalité qui nous entoure, la façon dont nous apprenons et réagissons, dépend de la façon dont notre cerveau est câblé », écrit-il. « Il a été avancé que, compte tenu de l’essor rapide de la technologie, l’évolution n’a pas eu suffisamment de temps pour développer les régions du néocortex qui sont responsables des fonctions cognitives supérieures. En conséquence, nous sommes biologiquement vulnérables et exposés. »
Le neurobouclier impliquerait une triple approche : développer un code de conduite quant à l’objectivité de l’information, mettre en place des protections réglementaires et créer une boîte à outils pédagogique pour les citoyens.
Le rapport soutient que la coopération entre les éditeurs, les journalistes, les dirigeants des médias, les faiseurs d’opinion et les scientifiques du cerveau peut former un « code de conduite » qui soutient l’objectivité de l’information. Eyre explique que l’interprétation des faits relève du domaine de la liberté sociale et politique, mais que les vérités indéniables doivent être protégées.
« Comme le démontrent les neurosciences, l’ambiguïté dans la compréhension des faits peut créer des » vérités alternatives « qui deviennent fortement codées dans notre cerveau », explique-t-il.
Une boîte à outils développée avec des neuroscientifiques pourrait protéger la liberté cognitive tout en protégeant les gens, en particulier les jeunes sur les réseaux sociaux, contre la désinformation. L’objectif principal de la boîte à outils serait d’aider les gens à apprendre à faire leur propre vérification des faits et à lutter contre la sensibilité du cerveau aux préjugés et à la désinformation. Par exemple, Google a actuellement des campagnes dans d’autres pays qui affichent de courtes vidéos sur les sites de médias sociaux et mettent en évidence la manière dont les allégations trompeuses peuvent être faites.
Pourtant, l’autonomie et le recours exclusif à un code de conduite peuvent créer des règles du jeu inégales, soutient Eyre.
« Il est essentiel pour les décideurs politiques et les spécialistes du cerveau de faire progresser cette approche politique », a-t-il déclaré. « Le projet de loi européenne sur l’IA est un exemple de prévision de la manière dont les fournisseurs de modèles d’IA peuvent être tenus responsables et maintenir la transparence. En impliquant étroitement les neuroscientifiques dans la planification et le déploiement du Neuroshield, les États-Unis peuvent garantir que les meilleures connaissances existantes sur le fonctionnement de notre cognition sont prises en compte.