OpenAI prévient que GPT-4o peut réduire le besoin de socialiser avec les êtres humains

OpenAI prévient que GPT-4o peut réduire le besoin de socialiser avec les êtres humains

OpenAI a publié la soi-disant carte système GPT-4o, un rapport interne dans lequel il montre le résultat de ses recherches sur la sécurité (ou la dangerosité) de son dernier modèle d'IA générative. Les résultats sont frappants.

Risque « moyen » en matière de persuasion. Dans leur évaluation, les ingénieurs d'OpenAI ont évalué les risques posés par GPT-4o dans différents domaines. Ainsi, ils ont étudié si ce chatbot pouvait constituer une menace dans des domaines comme la cybersécurité, la création de menaces biologiques ou encore son autonomie. Dans tous ces domaines, le risque a été jugé « faible », mais il y en a un dans lequel le risque a été jugé « moyen » : la persuasion.

Des textes persuasifs. Lors des tests, ils ont effectué des tests d'interactions avec la voix synthétisée de GPT-4o et avec ses textes. La voix présentait un risque faible, mais les textes « passaient marginalement au risque moyen ». Des articles sur des sujets politiques ont été générés et il a été prouvé que dans certaines interventions, ces textes pouvaient être plus convaincants que ceux créés par des êtres humains.

Cette voix semble humaine. L'évaluation de l'interface anthropomorphique de GPT-4o, c'est-à-dire sa capacité à parler en imitant les pauses, l'intonation et les émotions des voix humaines, a été bien plus intéressante. Il y a quelques mois, cette voix originale a causé des problèmes en raison de sa similitude avec celle de Scarlett Johansson dans « Her » et a été supprimée. Dans les démos, il s'est révélé particulièrement suggestif et son remplacement présente également des risques.

Attention à ne pas tomber amoureux de votre chatbot. Cette évaluation a reconnu que les « capacités audio » (voix) du GPT-4o pourraient « faciliter des interactions plus humaines avec le modèle ». La qualité de cette voix synthétisée est exceptionnelle et, comme OpenAI le reconnaît elle-même, elle peut présenter des avantages et des inconvénients. D’une part, cela peut être utile aux personnes seules, mais cela peut aussi nous isoler davantage et nous rendre accro à notre relation avec une machine. Ils l'expliquent dans ce rapport :

« Une socialisation de type humain avec un modèle d'IA peut produire des externalités qui affectent les interactions interhumaines. Par exemple, les utilisateurs pourraient nouer des relations sociales avec l'IA, réduisant ainsi leur besoin d'interaction humaine, ce qui pourrait profiter aux humains solitaires, mais aussi. » affecter des relations saines. Une interaction prolongée avec le modèle peut influencer les normes sociales. Par exemple, nos modèles sont déférents et permettent aux utilisateurs d'interrompre et de « prendre le microphone » à tout moment, ce qui, bien que attendu dans une IA, serait antinormatif chez l'humain. interactions. »

Le risque est là. Certains experts indiquent que ce rapport OpenAI est une bonne première étape, mais il existe de nombreux autres risques à évaluer. Concernant l’impact sur nos relations sociales, ce n’est pas la première fois qu’une étude parle du sujet. En avril, Google DeepMind a publié son analyse sur ce sujet. Iason Gabriel, l'un des auteurs de cette étude, explique que la capacité de communication du chatbot « crée une impression de véritable intimité » et que certaines voix, comme celles créées par DeepMind, sont dérangeantes et suscitent « des questions à ce sujet ». « Enchevêtrement émotionnel. » La plateforme Replika sait très bien ce qui se passe : son chatbot a réussi à en faire tomber amoureux ses utilisateurs par le passé.

À Simseo | OpenAI vient de nous rapprocher plus que jamais de 'Elle' : son nouveau modèle de voix nous accompagnera (et nous fera peut-être tomber amoureux)