Un professeur de médias affirme que la capacité supérieure de l'IA à formuler des pensées à notre place affaiblit notre capacité à penser de manière critique
La capacité supérieure de l'IA à formuler des pensées et des déclarations à notre place affaiblit notre jugement et notre capacité à penser de manière critique, explique le professeur de médias Petter Bae Brandtzæg.
Personne ne connaissait Chat GPT il y a à peine trois ans. Aujourd'hui, 800 millions de personnes utilisent cette technologie. La vitesse à laquelle l’IA se déploie bat tous les records et est devenue la nouvelle norme.
De nombreux chercheurs en IA, comme Brandtzæg, sont sceptiques. L'IA est une technologie qui interfère avec notre capacité à penser, lire et écrire. « Nous pouvons largement éviter les médias sociaux, mais pas l'IA. Celles-ci sont intégrées aux médias sociaux, à Word, aux journaux en ligne, aux programmes de messagerie électronique, etc. Nous devenons tous partenaires de l'IA, que nous le voulions ou non », déclare Brandtzæg.
Le professeur d'innovations médiatiques à l'Université d'Oslo a examiné comment l'IA nous affecte dans le cadre du projet récemment achevé « An AI-Powered Society ».
La commission de la liberté d’expression a négligé l’IA
Le projet a été mené en collaboration avec l'institut de recherche SINTEF. Il s'agit du premier projet de ce type en Norvège consacré à la recherche sur l'IA générative, c'est-à-dire l'IA qui crée du contenu, et sur la manière dont elle affecte à la fois les utilisateurs et le public.
Le contexte est que Brandtzæg a réagi au fait que le rapport de la Commission norvégienne pour la liberté d’expression, présenté en 2022, n’abordait pas suffisamment l’impact de l’IA sur la société – du moins pas l’IA générative.
« Certaines études montrent que l'IA peut affaiblir la pensée critique. Elle affecte notre langage, notre façon de penser, de comprendre le monde et notre jugement moral », explique Brandtzæg.
Quelques mois après le rapport de la Commission pour la liberté d'expression, ChatGPT a été lancé, rendant ses recherches encore plus pertinentes.
« Nous voulions comprendre comment une telle IA générative affecte la société, et en particulier comment l'IA modifie les structures et les relations sociales. »
IA-Individualisme
Les implications sociales de l'IA générative constituent un domaine relativement nouveau qui manque encore de théorie et de concepts. Les chercheurs ont donc lancé le concept d'« individualisme de l'IA ». Il s’appuie sur « l’individualisme de réseau », un cadre lancé au début des années 2000.
À l’époque, il fallait expliquer comment les smartphones, Internet et les réseaux sociaux permettaient aux gens de créer et d’adapter leurs réseaux sociaux au-delà de la famille, des amis et des voisins.
L’individualisme en réseau a montré comment la technologie a affaibli les anciennes limites de temps et de lieu, permettant ainsi des réseaux flexibles et personnalisés. Avec l’IA, quelque chose de nouveau se produit : la frontière entre les personnes et les systèmes commence également à s’estomper, à mesure que l’IA commence à assumer des rôles qui appartenaient autrefois aux humains.
« L'IA peut également répondre à des besoins personnels, sociaux et émotionnels », explique Brandtzæg.
Issu d’une formation en psychologie, il étudie depuis longtemps les relations homme-IA avec des chatbots comme Replika. ChatGPT et les IA sociales similaires peuvent fournir une assistance immédiate et personnelle pour un certain nombre de choses.
« Cela renforce l'individualisme en permettant un comportement plus autonome et en réduisant notre dépendance à l'égard des personnes qui nous entourent. Bien que cela puisse renforcer l'autonomie personnelle, cela peut également affaiblir les liens communautaires. Une évolution vers l'individualisme de l'IA pourrait donc remodeler les structures sociales fondamentales. »
Il soutient que le concept « d’individualisme IA » offre une nouvelle perspective pour comprendre et expliquer comment les relations changent dans la société avec l’IA. « Nous l'utilisons comme partenaire relationnel, partenaire de collaboration au travail, pour prendre des décisions », explique Brandtzæg.
Les étudiants choisissent le chatbot
Le projet s’appuie sur plusieurs enquêtes, dont un questionnaire à réponses ouvertes adressé à 166 lycéens sur la manière dont ils utilisent l’IA.
« Ils (ChatGPT et MyAI) vont droit au but en ce qui concerne ce que nous demandons, nous n'avons donc pas besoin de chercher sans fin dans les livres ou en ligne », a déclaré un lycéen à propos des avantages de l'IA.
« ChatGPT m'aide en cas de problèmes, je peux m'ouvrir et parler de choses difficiles, obtenir du réconfort et de bons conseils », a répondu un étudiant.
Dans une autre étude, utilisant une expérience en ligne avec un test aveugle, il s'est avéré que de nombreuses personnes préféraient les réponses d'un chatbot à celles d'un professionnel lorsqu'elles avaient des questions sur la santé mentale. Plus de la moitié ont préféré les réponses d'un chatbot, moins de 20 % ont répondu à un professionnel, tandis que 30 % ont répondu les deux.
« Cela montre à quel point cette technologie est puissante et que nous préférons parfois le contenu généré par l'IA au contenu généré par l'homme », explique Brandtzæg.
« Puissance du modèle »
La théorie du « pouvoir du modèle » est un autre concept qu’ils ont lancé. Elle s’appuie sur une théorie des relations de pouvoir développée par le sociologue Stein Bråten il y a 50 ans.
Le pouvoir de modèle est l'influence que l'on exerce en possédant un modèle de réalité qui a un impact et que d'autres doivent accepter en l'absence de modèles de pouvoir équivalents, selon l'article « Modellmakt og styring » (journal en ligne Panorama – en norvégien).
Dans les années 1970, il s’agissait de savoir comment les médias, la science et divers groupes dotés d’autorité pouvaient influencer les gens et détenir un pouvoir de modèle. Maintenant, c'est l'IA.
Le point de vue de Brandtzæg est que le contenu généré par l’IA ne fonctionne plus en vase clos. Elle se répand partout, dans les rapports publics, les nouveaux médias, la recherche et les encyclopédies. Lorsque nous effectuons des recherches sur Google, nous obtenons d’abord un résumé généré par l’IA.
« Une sorte de couche d'IA recouvre tout. Nous suggérons que la puissance de modèle de l'IA sociale peut conduire à des monopoles modèles, affectant de manière significative les croyances et le comportement humains. »
Parce que les modèles d'IA, comme ChatGPT, sont basés sur le dialogue, ils les appellent IA sociale. Mais dans quelle mesure un dialogue avec une machine alimentée par d’énormes quantités de texte est-il authentique ?
« L'IA sociale peut promouvoir une illusion de conversation réelle et d'indépendance – une pseudo-autonomie grâce au pseudo-dialogue », explique Brandtzæg.
Critique mais toujours suivant les conseils de l'IA
Selon une enquête de l'Autorité norvégienne des communications (Nkom) d'août 2025, 91 % des Norvégiens sont préoccupés par la propagation de fausses informations provenant de services d'IA tels que Copilot, ChatGPT et Gemini.
L'IA peut halluciner. Un exemple connu est un rapport que la municipalité de Tromsø a utilisé comme base pour une proposition de fermeture de huit écoles, basé sur des sources fabriquées par Amnesty International. Ainsi, l’IA peut contribuer à la désinformation et miner la confiance des utilisateurs dans l’IA, les prestataires de services et les institutions publiques.
Brandtzæg demande combien d’autres petites municipalités et institutions publiques ont fait de même et il s’inquiète de la propagation de cette propagation involontaire de désinformation.
Lui et ses collègues chercheurs ont examiné diverses études indiquant que même si nous aimons dire que nous sommes critiques, nous suivons néanmoins les conseils de l'IA, qui mettent en évidence la puissance du modèle dans de tels systèmes d'IA.
« Ce n'est peut-être pas surprenant que nous suivions les conseils que nous recevons. C'est la première fois dans l'histoire que nous parlons à une sorte d'entité toute-puissante qui a autant lu. Mais cela donne un pouvoir modèle qui fait peur. Nous croyons que nous sommes dans un dialogue, que c'est de la coopération, mais c'est une communication à sens unique. »
Monoculture américaine
Un autre aspect de cette puissance de modèle est que les sociétés d’IA sont basées aux États-Unis et s’appuient sur de grandes quantités de données américaines.
« Nous estimons qu'à peine 0,1 % sont norvégiens dans les modèles d'IA comme ChatGPT. Cela signifie que ce sont les informations américaines auxquelles nous nous rapportons et qui peuvent affecter nos valeurs, nos normes et nos décisions. »
Qu’est-ce que cela signifie pour la diversité ? Le principe est que « le gagnant remporte tout ». AI ne prend pas en compte les intérêts minoritaires. Brandtzæg souligne que le monde n’a jamais été confronté à une technologie aussi intrusive, qui nécessite une réglementation et un équilibre par rapport aux véritables besoins et valeurs humains.
« Nous ne devons pas oublier que l'IA n'est pas un projet public et démocratique. Elle est commerciale et derrière elle se trouvent quelques entreprises et milliardaires américains », explique Brandtzæg.
