Le contenu généré par l’IA peut-il constituer une menace pour la démocratie ?
Dans un avenir pas si lointain, la plupart des informations que les gens consomment sur Internet seront influencées par l’intelligence artificielle, affirme un expert du Nord-Est.
Et s'il est impossible de ralentir l'utilisation de l'IA, il est crucial de comprendre ses limites (ce qu'elle ne peut pas et ne doit pas faire) et d'adopter des normes éthiques pour son développement et son déploiement, explique John Wihbey, professeur agrégé d'innovation médiatique. et la technologie.
Dans le cas contraire, la démocratie est en danger, dit Wihbey.
La démocratie d’aujourd’hui, dit-il, est un système complexe de personnes traitant collectivement l’information pour résoudre des problèmes. Les connaissances et les informations consommées par le public jouent un rôle clé dans le soutien de la vie démocratique.
Les chatbots peuvent simuler une conversation humaine et effectuer efficacement des tâches de routine, et les agents IA sont des systèmes intelligents autonomes qui résolvent les demandes des clients en effectuant des tâches sans intervention humaine. Ils pourraient bientôt remplacer les humains, dit Wihbey, dans des domaines d'information tels que le journalisme, la modération des réseaux sociaux et les sondages.
« Alors que les systèmes d'IA commencent à créer des récits publics et à modérer et contrôler les connaissances publiques », dit Wihbey, « il pourrait y avoir une sorte de verrouillage en termes de compréhension du monde ».
L'IA et les grands modèles linguistiques sont formés et génèrent du contenu basé sur des données passées sur les valeurs et les intérêts des personnes. Ils renforceront continuellement les idées et préférences passées, explique Wihbey, créant des boucles de rétroaction et des chambres d’écho.
Ce risque de boucles de rétroaction, dit-il, restera récurrent.
Dans le journalisme, dit Wihbey, l'IA pourrait être davantage intégrée aux salles de rédaction pour découvrir et vérifier des informations, catégoriser le contenu, effectuer une analyse à grande échelle des médias sociaux et même générer une couverture automatisée d'événements, notamment des réunions civiques et gouvernementales.
Des municipalités entières ou des régions plus vastes, appelées déserts d’information, pourraient finir par être couvertes par des agents d’IA, dit-il.
Sur les réseaux sociaux, les modérateurs d’IA dont le jugement est conditionné par des données obsolètes et ne correspondent pas aux dernières préférences humaines, dit Wihbey, pourraient surmodérer et effacer les publications et commentaires des utilisateurs – un espace vital pour la délibération humaine moderne.
S’ils ne peuvent pas suivre l’évolution rapide des contextes humains, les chatmods peuvent également être soumis à des boucles de rétroaction. Leurs actions affecteront ce qui devient de notoriété publique ou ce que les humains croient être vrai et digne d’attention.
Les simulations de sondage basées sur l'IA pourraient fausser les résultats, affectant ainsi les conclusions des citoyens. De telles connaissances déformées influenceront de manière répétée les préférences humaines et les décisions dans l’espace démocratique – par exemple, ce en quoi les gens croient ou pour qui ils peuvent voter – créant ainsi des spirales récursives.
Selon Wihbey, les modèles d'IA ne seront intrinsèquement jamais capables de prédire avec précision la réaction du public à quelque chose ou au résultat d'une élection.
« Certaines recherches sur la façon dont l'IA peut servir à simuler des sondages d'opinion humains montrent que cela est vrai là où les données ne sont pas encore bien établies dans le modèle », dit-il. « Dans la vie politique et sociale, une grande partie de ce qui est important est fondamentalement émergent.
« Nous ne savons pas encore ce que les êtres humains penseront ou feront jusqu'à ce que, en tant qu'individus et en tant que groupes, nous arrivions à des zones de défi, d'inquiétude ou d'anxiété, et que nous commencions alors à prendre des décisions individuelles et collectives. »
Des recherches plus approfondies pourraient être étendues à la recherche et à la découverte en ligne, explique Wihbey. Par exemple, la nouvelle fonction AI Overview de Google, qui consolide une requête en une seule réponse, pourrait amener les utilisateurs à contourner les processus traditionnels de navigation, de découverte, de délibération et de raisonnement.
En raison de ces limites et du caractère incomplet des modèles d’IA, les humains devraient faire la distinction entre les domaines dans lesquels l’IA peut faciliter la prise de conscience collective et les domaines qu’ils souhaitent préserver en tant que zones centrées sur l’humain pour une pensée indépendante.
« À ce niveau profond, il s'agit de liberté humaine et de libre arbitre », explique Wihbey. « Mais je pense aussi qu'il s'agit simplement de la capacité des humains à exprimer légitimement de nouveaux types d'idées et de préférences qui ne sont pas conformes au passé. »
Les humains doivent trouver des moyens, dit-il, où l’IA ne façonne pas les choix qu’ils font ou les préférences qu’ils expriment.
« Si nous voulons vraiment respecter les humains », déclare Wihbey, « nous devons nous assurer que ces modèles sont extrêmement modestes ».
Les chatbots IA imitent déjà l’autorité des experts, dit-il, et donnent des réponses avec un degré de confiance important, même si les réponses sont souvent incorrectes.
« Je pense simplement que les modèles ne doivent pas prétendre être des experts humains dans leur voix, leur formulation, leur cadrage et leur manière de faire les choses », déclare Wihbey. « L'IA ne devrait pas ressembler, ressentir et se comporter comme l'intelligence humaine. »
Ce ne sont que des modèles probabilistes, dit Wihbey, qui rassemblent les données sur lesquelles ils ont été formés.
Les gouvernements et les grandes institutions ont un rôle à jouer, estime Wihbey, dans la préservation des valeurs démocratiques en contribuant à faire face aux risques liés à l’IA. Dans le même temps, il existe un risque que les gouvernements utilisent également les systèmes basés sur l’IA pour atteindre leurs propres objectifs.
« Toute discussion sur l'IA, la connaissance publique et la démocratie doit tenir compte de la grande diversité des environnements d'information à travers le monde », déclare Wihbey.
Cette histoire est republiée avec l'aimable autorisation de Northeastern Global News news.northeastern.edu.
