L'« illusion » de l'IA sociale
Chaque jour, des millions de personnes parlent à des chatbots et des assistants IA tels que ChatGPT, Replika et Gemini, mais quel genre de « relations » formons-nous réellement avec eux ?
Dans un numéro spécial de la revue Nouveaux médias et sociétéle Dr Iliana Depounti (Université de Loughborough) et la professeure agrégée Simone Natale (Université de Turin) explorent l'essor de la « socialité artificielle » : des technologies qui simulent le comportement social et les liens émotionnels sans les posséder réellement.
Leur article, « Décoder la socialité artificielle : technologies, dynamiques, implications » révèle un certain nombre de problèmes associés à la montée en puissance des grands modèles linguistiques (LLM) et des chatbots IA.
Il soutient que l'illusion d'amitié ou de compréhension créée par l'IA est délibérément cultivée par des entreprises technologiques pour accroître l'engagement des utilisateurs, comme le « AI DJ » de Spotify avec une voix humaine amicale et les chatbots « compagnon virtuel » de Replika.
Le Dr Depounti a déclaré : « Les robots compagnons d'IA générative tels que Replika ou Character AI illustrent les technologies de socialité artificielle.
« Ils sont créés pour favoriser la projection émotionnelle, offrant aux utilisateurs intimité et camaraderie grâce à des fonctionnalités telles que les avatars, les jeux de rôle, la personnalisation et la gamification, le tout avec des avantages monétaires pour les entreprises qui les conçoivent.
« ChatGPT utilise également des techniques de socialité artificielles, depuis la référence à lui-même en tant que « je » jusqu'à l'adoption de tons d'autorité, d'empathie ou d'expertise.
« Bien que ces systèmes simulent la socialité plutôt que de la recréer, leur pouvoir réside dans cette simulation, dans leur capacité à engager, persuader et émouvoir des millions d'utilisateurs dans le monde, soulevant de profondes questions éthiques. »
L'étude montre comment les signaux sociaux sont intégrés aux produits pour permettre aux gens d'interagir plus longtemps.
D'autres problèmes incluent :
- Les machines ne font qu'imiter le comportement socialmais les utilisateurs projettent toujours sur eux des sentiments, de la confiance et de l'empathie.
- Données utilisateur et travail émotionnel sont exploitées pour former et « personnaliser » les systèmes d’IA, soulevant des préoccupations éthiques et environnementales concernant le travail humain caché et la consommation massive d’énergie des centres de données.
- Préjugés et stéréotypes Les systèmes d’IA reflètent les inégalités sociales, façonnant la manière dont le genre, la classe et la race sont représentés dans les conversations numériques.
- Les utilisateurs s'adaptent aux « compagnons » de l'IA grâce à ce que les chercheurs appellent la « re-domestication » : renégocier les relations à chaque fois que la personnalité ou le comportement d'un chatbot change.
- La frontière entre authenticité et tromperie » devient flou à mesure que les personnalités de l'IA sont commercialisées comme des « amis », des « collègues » ou même des « influenceurs ».
Le Dr Natale a déclaré : « La socialité artificielle est la nouvelle frontière de la communication homme-machine dans nos interactions avec les technologies d'IA générative.
« Ces systèmes ne ressentent pas, mais ils sont conçus pour nous faire ressentir, et cette projection émotionnelle a de profondes conséquences sociales, économiques et éthiques. Les technologies de socialité artificielle invitent et encouragent ces projections. »
Derrière ces conversations apparemment faciles, préviennent les chercheurs, se cache une vaste infrastructure au coût humain et environnemental.
Les modèles d'IA s'appuient sur d'énormes ensembles de données provenant des interactions en ligne des personnes et souvent de leurs conversations avec les machines elles-mêmes.
Ces données sont ensuite utilisées pour « entraîner » les chatbots à paraître plus humains, parfois avec des utilisateurs effectuant sans le savoir un travail émotionnel ou linguistique non rémunéré.
Dans le même temps, les serveurs qui alimentent l’IA générative consomment d’énormes quantités d’électricité et d’eau.
Les auteurs soulignent un investissement de 500 milliards de dollars réalisé par de grandes entreprises technologiques dans de nouveaux centres de données pour répondre à la demande en IA, le décrivant comme faisant partie d'un système « extractif » qui transforme la communication humaine en atouts d'entreprise.
