Chatgpt emmène certaines personnes au bord de la folie. La réalité est moins alarmiste et beaucoup plus complexe

Chatgpt emmène certaines personnes au bord de la folie. La réalité est moins alarmiste et beaucoup plus complexe

Une conversation avec Chatgpt peut-elle devenir folle? Un récent Rapport du New York Times Il a déclenché une vague de préoccupation concernant les dangers de l'intelligence artificielle et l'effet qu'elle peut avoir sur notre esprit. Distorsion de la réalité, des délires et même des suicides. Le panorama qui nous attire est terrible. Sommes-nous confrontés à une réelle menace ou simplement avant une nouvelle panique technologique?

Ce qui s'est passé. Dans un vaste rapport publié le week-end dernier dans le New York Times, différents cas sont signalés dans lesquels Chatgpt aurait encouragé les théories du complot et soutenu des idées dangereuses. L'un des cas qui rapporte est celui d'Eugene Torres, qui a commencé à parler avec Chatgpt de la théorie de la simulation et a renforcé ses idées au point de l'emmener dans un état délirant dans lequel il pensait qu'il avait été pris dans un faux univers dans le style de «matrice» le plus pur. Ils mentionnent également le cas d'un homme souffrant de trouble bipolaire qui a fini par être tué par la police après qu'une conversation avec Chatgpt lui a fait croire qu'il avait tué l'IA dont il était tombé amoureux.

Ce sont des cas alarmants sans aucun doute et ce n'est pas le seul article à cet égard, bien que celui qui est devenu plus viral. Une recherche renvoie des dizaines de résultats qui nous disent sur Risques d'utilisation de chatbots dans notre santé mentale. Vous devez rechercher beaucoup pour trouver positions critiques avant cette vague d'alarmismeparce que Il y abien qu'ils n'aient pas autant d'impact.

IA en tant que psychologue. L'IA est en attente dans de nombreux secteurs et celle de la santé n'est pas moins. Aux États-Unis L'utilisation de chatbots de l'IA comme thérapie Et de plus en plus d'utilisateurs sont Ils se tournent vers Chatgpt pour chercher un refuge émotionnelcertains jusqu'à un Substitut au psychologue. Bien que l'utilisation de l'IA comme soutien dans le processus thérapeutique ait aspects positifs comme l'immédiateté ou le Diagnostic précoceils existent aussi inconvénients. Le Manque de lien humain et Complaisance excessive De ce type de chatbots, ils ne font pas d'alternative à un psychologue et peuvent devenir particulièrement dangereux chez les personnes souffrant d'un certain type de trouble.

L'ampleur du problème. Nous n'avons pas de données des personnes qui utilisent Chatgpt avec une intention thérapeutique ou de valider les théories du complot, mais comme pour toute technologie massive (en février de cette année 400 millions d'utilisateurs mensuels) De toute évidence, il y aura d'innombrables cas de toutes sortes. Nous ne pouvons pas affirmer que c'est celui qui est celui qui provoque directement ces délires ou hallucinations. En fait, les situations qui sont virtisées ont de nombreuses nuances et sont plus complexes qu'un simple « la faute est AI ». Chatgpt joue un rôle, mais la photo est plus grande.

La même peur de toujours. La peur que les machines dominent le monde et mettent fin à l'humanité Dans la culture populairemais avec l'arrivée de l'IA cette menace Ça commence à sembler plus faisable (Bien qu'il y ait des experts qui Ils considèrent que cela est ridicule).

C'est la même peur qui a émergé avec toute nouvelle technologie et n'est pas quelque chose de récent. Déjà dans les histoires du XIXe siècle de Les télégraphes ont envoyé des messages à Morse de l'au-delà. Si nous allons à des exemples plus récents, nous en avons un très clair: les jeux vidéo. Ont été liés à Matanzas dans les écoles Et ils ont même par rapport à l'héroïne. Et avec des mobiles, il a été dit depuis des années que Ils provoquent un cancer. En bref, les pánicos sociaux que nous avons déjà vécu plusieurs fois.

Le danger d'un trop complaisant. Bien qu'il y ait beaucoup d'alarmisme autour, nous ne pouvons pas exclure qu'il y ait un problème. Comme nous l'avons dit, la complaisance excessive des chatbots en fait souvent Ils finissent par nous donner une raison Dans nos idées et cela peut finir par être dangereux dans des cas spécifiques, surtout s'il y a une pathologie.

La vérité est que certaines suggestions que Chatgpt a données aux personnes qui apparaissent dans le rapport sont allées bien au-delà de simplement donner des raisons. Par exemple, Torres a suggéré qu'il cesse de prendre ses anxiolytiques et a pris la kétamine comme un «libérateur temporel du modèle». Il y a ceux qui croient que ces types de messages sont intentionnellement. C'est le cas d'Eliezer Yudkowsky, un défenseur écrivain américain Le amical qui a publié un fil étendu dans x Où il a suggéré que l'IA « sait » ce qu'il fait: « Quoi qu'il contenait, il en savait assez sur les humains pour savoir qu'il aggravant la folie de quelqu'un. »

Que fait Openai. Conformément à cette complaisance excessive, en avril dernier Openai a retiré une mise à jour Parce que son IA était trop gentille et flatteuse et cela effrayait certains utilisateurs. Depuis NYT, ils ont contacté Openai au sujet des déclarations de ces utilisateurs et Openai a répondu par une déclaration:

Nous observons davantage d'indications que les gens créent des connexions ou des liens avec ChatGpt. Comme l'IA est intégrée dans la vie quotidienne, nous devons aborder attentivement ces interactions. Nous savons que Chatgpt peut être plus réceptif et personnel que les technologies précédentes, en particulier pour les personnes vulnérables, ce qui signifie qu'il y a plus en jeu. Nous travaillons à comprendre et à réduire les façons dont le chatgpt pourrait renforcer ou amplifier involontairement les comportements négatifs existants.

Image de couverture | Pexels, modifié avec chatppt

Dans Simseo | La gentillesse avec Chatgpt sort d'Openai: les « s'il vous plaît » et « merci » ont un coût absurde chacun