La suppression du fact-checker de Meta a suscité la controverse, mais la véritable menace réside dans l'IA et la neurotechnologie

La suppression du fact-checker de Meta a suscité la controverse, mais la véritable menace réside dans l’IA et la neurotechnologie

La récente décision de Mark Zuckerberg de supprimer les vérificateurs de faits des plateformes de Meta, notamment Facebook, Instagram et Threads, a suscité un débat houleux. Les critiques affirment que cela pourrait saper les efforts visant à lutter contre la désinformation et à maintenir la crédibilité sur les plateformes de médias sociaux.

Pourtant, même si cette décision suscite beaucoup d’attention, un défi bien plus profond se profile. L’essor de l’intelligence artificielle (IA) qui traite et génère un langage de type humain, ainsi que la technologie visant à lire le cerveau humain, ont le potentiel de remodeler non seulement le discours en ligne, mais aussi notre compréhension fondamentale de la vérité et de la communication.

Les factcheckers jouent depuis longtemps un rôle important dans la lutte contre la désinformation sur diverses plateformes, en particulier sur des sujets tels que la politique, la santé publique et le changement climatique. En vérifiant les affirmations et en fournissant un contexte, ils ont aidé les plateformes à maintenir un certain degré de responsabilité.

Ainsi, la décision de Meta de les remplacer par des notes communautaires, similaires à l’approche d’Elon Musk sur X (anciennement Twitter), a naturellement soulevé des inquiétudes. De nombreux experts considèrent la décision de supprimer les factcheckers comme un pas en arrière, arguant que déléguer la modération du contenu aux utilisateurs risque d’amplifier les chambres d’écho et de permettre la propagation de mensonges non contrôlés.

Des milliards de personnes dans le monde utilisent les différentes plateformes de Meta chaque mois, elles exercent donc une énorme influence. L’assouplissement des garanties pourrait exacerber la polarisation sociétale et miner la confiance dans la communication numérique.

Mais même si le débat sur la vérification des faits fait la une des journaux, la situation est plus vaste. Les modèles d’IA avancés comme ChatGPT d’OpenAI ou Gemini de Google représentent des progrès significatifs dans la compréhension du langage naturel. Ces systèmes peuvent générer un texte cohérent et contextuellement pertinent et répondre à des questions complexes. Ils peuvent même engager des conversations nuancées. Et cette capacité à reproduire de manière convaincante la communication humaine introduit des défis sans précédent.

Le contenu généré par l’IA brouille la frontière entre la paternité humaine et la paternité machine. Cela soulève des questions éthiques sur la paternité, l’originalité et la responsabilité. Les mêmes outils qui alimentent des innovations utiles peuvent également être utilisés comme armes pour produire des campagnes de désinformation sophistiquées ou manipuler l’opinion publique.

Ces risques sont aggravés par d’autres technologies émergentes. Inspirés par la cognition humaine, les réseaux neuronaux imitent la façon dont le cerveau traite le langage. Cette intersection entre l’IA et la neurotechnologie met en évidence le potentiel de compréhension et d’exploitation de la pensée humaine.

Conséquences

La neurotechnologie est un outil qui lit et interagit avec le cerveau. Son objectif est de comprendre comment nous pensons. Comme l’IA, elle repousse les limites de ce que les machines peuvent faire. Les deux domaines se chevauchent de manière puissante.

Par exemple, REMspace, une startup californienne, construit un outil qui enregistre les rêves. Utilisant une interface cerveau-ordinateur, il permet aux gens de communiquer par le biais de rêves lucides. Bien que cela semble passionnant, cela soulève également des questions sur la confidentialité mentale et le contrôle de nos propres pensées.

Parallèlement, les investissements de Meta dans la neurotechnologie, parallèlement à ses projets d’IA, sont également préoccupants. Plusieurs autres entreprises mondiales explorent également la neurotechnologie. Mais comment les données issues de l’activité cérébrale ou des schémas linguistiques seront-elles utilisées ? Et quelles garanties empêcheront les abus ?

Si les systèmes d’IA peuvent prédire ou simuler les pensées humaines grâce au langage, la frontière entre communication externe et cognition interne commence à s’estomper. Ces progrès pourraient éroder la confiance, exposer les gens à l’exploitation et remodeler notre façon de concevoir la communication et la vie privée.

Les recherches suggèrent également que si ce type de technologie pourrait améliorer l’apprentissage, il pourrait également étouffer la créativité et l’autodiscipline, en particulier chez les enfants.

La décision de Meta de supprimer les factcheckers mérite un examen minutieux, mais ce n’est qu’une partie d’un défi beaucoup plus vaste. L’IA et les neurotechnologies nous obligent à repenser la façon dont nous utilisons le langage, exprimons nos pensées et même comprenons le monde qui nous entoure. Comment pouvons-nous garantir que ces outils servent l’humanité plutôt que de l’exploiter ?

Le manque de règles pour gérer ces outils est alarmant. Pour protéger les droits humains fondamentaux, nous avons besoin d’une législation solide et d’une coopération entre différents secteurs et gouvernements. Trouver cet équilibre est crucial. L’avenir de la vérité et de la confiance dans la communication dépend de notre capacité à relever ces défis avec vigilance et prévoyance.