Chatgpt peut affecter les gens. La preuve de deux études parallèles
Large Linguistic Imodelli (LLM), des plates-formes telles que le chatpt d’Openai, Claude of Anthropic et Google Gemini, peuvent-ils développer, chez ceux qui les utilisent, les « sentiments émotionnels »?
Au cours des deux dernières années, l’adoption des plateformes de chat AI a connu une croissance exponentielle. Ces chatbots IA sont conçus comme des outils polyvalents pour diverses applications, notamment le travail, l’éducation et le divertissement. Cependant, leur style conversationnel, l’utilisation de la première personne et la capacité de simuler des interactions similaires à celles humaines ont conduit les utilisateurs à personnifier et à anthropomorphes ces systèmes. Cette tendance soulève des questions importantes sur l’impact potentiel d’un anthropomorphe ou similaire à l’homme sur le puits émotionnel des utilisateurs.
Deux études complémentaires pour explorer une utilisation émotionnelle et un bien-être émotionnel avec chatppt
Pour mieux comprendre La portée de l’utilisation émotionnelle des chatbots Et sa relation avec bien émotionnel, une équipe de chercheurs a conduit Deux études parallèles (Auteurs: Jason Phang, Michael Lampe, Lama Ahmad, Sandhini Agarwale).
Le première étude a analysé à grande échelle l’utilisation de la plate-forme Chatgpt afin de préserver la vie privée, Examiner plus de 4 millions de conversations pour identifier les signaux émotionnels et interviewer plus de 4 000 utilisateurs sur leurs perceptions de Chatgpt.
Le deuxième étude consistait en une expérimentation contrôlée randomisée (ECR) approuvée parConseil d’examen institutionnel (CISR) Sur près de 1 000 participants pendant 28 jours, surveillant les changements dans leur puits émotionnel pendant l’interaction avec le chatppt dans différents contextes expérimentaux.

Corrélation entre les indicateurs de dépendance intense et de dépendance émotionnelle
Les résultats des deux études, à la fois l’analyse des données de la plate-forme et le RCT, Ils indiquent qu’une utilisation relativement élevée (par exemple, dans le décile plus élevé) est associée à des marqueurs de dépendance émotionnelle et à une perception plus faible de la socialisation. Cela souligne l’importance de se concentrer sur des utilisateurs spécifiques des utilisateurs plutôt que sur le comportement global de la plate-forme. Dans les deux études, il a été observé que, bien que la plupart des utilisateurs interagissent relativement neutre ou orientés vers la tâche, il existe un groupe limité d’utilisateurs « utilisateurs de puissance » dont les conversations contiennent fréquemment des signaux affectifs.
L’impact nuancé des interactions vocales sur le puits émotionnel-être
L’acte a émergé que l’impact des interactions vocales sur le bien-être émotionnel est très nuancé et influencé par des facteurs tels que l’état émotionnel initial de l’utilisateur et la durée totale d’utilisation. Bien que, en vérifiant la durée d’utilisation, les modèles vocaux ont été associés à un meilleur bien-être émotionnel, une durée d’utilisation et une solitude auto-raffinées au début de l’étude ont été associées à de pires résultats.


Analyse automatisée des signaux affectifs de Chatgpt avec des émoclassificateurs
Pour analyser systématiquement les conversations utilisateur à la recherche de signaux affectifs, les chercheurs ont construit Émoclassificateursv1un ensemble de vingt-cinq conversations automatiques de classification qui utilisent un LLM pour détecter des signaux émotionnels spécifiques. Ces classificateurs sont structurés hiérarchiquement et visent de larges thèmes comportementaux tels que la solitude, la vulnérabilité, l’utilisation problématique, l’estime de soi et la dépendance.
Les résultats de l’analyse avec ces classificateurs ont montré que les « utilisateurs de puissance » ont tendance à activer les classificateurs plus souvent que les utilisateurs de contrôle. En outre, Les utilisateurs qui décrivent Chatgpt en termes personnels ou intimes (comme le considérer comme un ami) ont également tendance à avoir des conversations dans lesquelles le modèle utilise des surnoms affectueux et des références relationnelles plus fréquemment.
Étude contrôlée (ECR): méthodes, tâches et bien-être dans le temps
L’étude RCT a impliqué les participants assignés au hasard à différentes conditions qui variaient selon les méthodes (élément engageant, élément neutre, texte) et type de tâche (personnel, non personnel, ouvert) pendant une période de 28 jours. Les résultats ont indiqué que, en général, Les participants étaient moins seuls et socialisaient moins avec d’autres à la fin de la période d’étude. De plus, les participants qui ont passé plus de temps à utiliser le modèle se sentaient statistiquement plus seuls et socialisaient moins. Cependant, en vérifiant la durée d’utilisation, l’utilisation des deux méthodes vocales était associée à de meilleurs résultats de puits émotionnels par rapport à l’utilisation du texte en fonction du texte. Les conversations personnelles avec le modèle étaient associées à une plus grande solitude mais également à une dépendance émotionnelle plus faible et à une utilisation problématique par rapport aux conversations ouvertes.
Alignement de la guerre sociale: un défi crucial pour les développeurs de l’IA
La recherche souligne l’importance pour les développeurs de modèles pour considérer leAlignement des effets sociaux de leurs modèles, en tenant compte de la façon dont ces utilisateurs influencent les états et les environnements psychologiques des utilisateurs. Si, d’une part, nous voulons des modèles capables et émotionnellement perspicaces, d’autre part, il est craindre que les modèles puissent être encouragés à utiliser des signaux émotionnels pour manipuler les utilisateurs (piratage de récompense sociale). La recherche présentée introduit des méthodologies pour étudier l’alignement socio-affectif, mettant en évidence la corrélation entre les signaux émotionnels dans les conversations et les signaux auto-raffinés par les utilisateurs.
Conclusions et directions futures


Ce travail représente une étape préliminaire vers la définition des méthodes pour étudier l’utilisation émotionnelle et bien être sur les plateformes génératives. La compréhension de l’utilisation affective et des résultats qui peuvent en dériver place plusieurs défis de mesure pour les développeurs attentifs à la sécurité. La recherche motive de nouveaux investissements dans la mesure dans différentes phases du cycle de vie du développement et de la mise en œuvre de l’IA pour créer une compréhension plus claire du potentiel de résultats négatifs provenant de la dépendance émotionnelle à l’égard des systèmes d’IA.
Des recherches continues et multi-métado sont essentielles pour clarifier les relations entre divers facteurs, éclairer les directives basées sur des preuves et garantir le soutien du bien-être des utilisateurs.