Vendre vos intentions avant de les connaître

Vous voulez un assistant AI avancé? Préparez-vous à ce qu'ils soient dans votre entreprise

La prolifération croissante des chatbots alimentés par l'IA a conduit à des débats autour de leurs rôles sociaux en tant qu'ami, compagnon ou assistant de travail.

Et ils deviennent de plus en plus sophistiqués. Le personnage de la plate-forme de rôle de rôle AI promet un engagement personnel et créatif à travers des conversations avec ses personnages de bot. Il y a également eu des résultats négatifs: actuellement, le personnage.ai fait face à une affaire judiciaire impliquant le rôle de son chatbot dans le suicide d'un adolescent.

D'autres, comme Chatgpt et Google Gemini, promettent une amélioration de l'efficacité du travail via Genai. Mais où ça va ensuite? Au milieu de cette frénésie, les inventeurs développent désormais des assistants AI avancés qui seront beaucoup plus intuitifs socialement et capables de tâches plus complexes.

Choc futur

Le choc provoqué par le chatppt d'Openai il y a deux ans n'était pas seulement dû à la montée en puissance d'adoption et à la menace pour les emplois, mais aussi en raison du coup culturel, il visait l'écriture créative et l'éducation.

Ma recherche explore comment le battage médiatique entourant l'IA affecte la capacité de certaines personnes à porter des jugements professionnels à ce sujet. Cela est dû à l'anxiété liée à la vulnérabilité de la civilisation humaine, nourrissant l'idée d'une future « superintelligence » qui pourrait dépasser le contrôle humain.

Avec 1,3 billion de dollars de revenus prévus pour 2032, les prévisions financières pour Genai entraînent un battage médiatique.

La couverture médiatique traditionnelle sensationnalise également la créativité de l'IA et encadre la technologie comme une menace pour la civilisation humaine.

Soutenir l'alarme

Les scientifiques du monde entier ont signalé une urgence autour des implémentations et des applications de l'IA.

Geoffrey Hinton, lauréat du prix Nobel et pionnier de l'IA, a quitté sa position chez Google sur les désaccords sur le développement de l'IA et a regretté son travail chez Google en raison des progrès de l'IA. La menace future, cependant, est beaucoup plus personnelle.

Recréer des utilisateurs

Le virage dans l'IA en cours est maintenant un changement vers des outils d'IA égocentriques et personnalisés qui vont bien au-delà des capacités actuelles pour recréer ce qui est devenu une marchandise: le soi. Les technologies de l'IA remontant la façon dont nous nous percevons: nos personnages, nos pensées et nos sentiments.

La prochaine vague d'assistants d'IA, une forme d'agents d'IA, connaîtra non seulement leurs utilisateurs intimement, mais ils pourront agir au nom d'un utilisateur ou même les usurrer. Cette idée est beaucoup plus convaincante que celles qui ne servent que d'assistants en train d'écrire du texte, de créer une vidéo ou un logiciel de codage.

Ces agents d'IA personnalisés pourront déterminer les intentions et effectuer des travaux.

Iason Gabriel, chercheur principal chez Google Deepmind, et une grande équipe de chercheurs ont écrit sur le développement éthique des assistants avancés de l'IA. Leurs recherches semblent l'alarme que les assistants de l'IA peuvent « influencer les croyances et le comportement des utilisateurs », y compris par « tromperie, coercition et exploitation ».

Il y a encore un aspect techno-utopien de l'IA. Dans un podcast, Gabriel rumine que « beaucoup d'entre nous aimeraient être branchés sur une technologie qui peut s'occuper de nombreuses tâches de vie en notre nom », l'appelant également un « partenaire de pensée ».

Perturbation culturelle

Ce virage plus récent dans la perturbation de l'IA interférera la façon dont nous nous comprenons et, en tant que tels, nous devons anticiper l'impact techno-culturel.

En ligne, les gens expriment des versions hyper-réelles et très organisées d'eux-mêmes sur des plateformes comme X, Instagram ou LinkedIn. Et la façon dont les utilisateurs interagissent avec des assistants numériques personnels comme Siri d'Apple ou Alexa d'Amazon nous ont socialisé pour réinventer notre vie personnelle. Ces pratiques de «récit de vie» informent un rôle clé dans le développement de la prochaine vague d'assistants avancés.

Le mouvement auto quantifié est lorsque les utilisateurs suivent leur vie à travers diverses applications, technologies portables et plateformes de médias sociaux. Les nouveaux développements dans les assistants d'IA pourraient tirer parti de ces mêmes outils pour le biohacking et l'auto-amélioration, mais ces outils émergents soulèvent également des préoccupations concernant le traitement des données personnelles. Les outils d'IA comportent le risque de vol d'identité, de sexe et de discrimination raciale et diverses divisions numériques.

Plus que de l'aide

L'interaction assistant humain-AI peut converger avec d'autres domaines. Les technologies jumelles numériques pour la santé appliquent les biodata des utilisateurs. Ils impliquent la création d'une représentation virtuelle de l'état physiologique d'une personne et peuvent aider à prédire les développements futurs. Cela pourrait également entraîner une exagération excessive sur les assistants de l'IA pour l'information médicale sans surveillance humaine des professionnels de la santé.

D'autres assistants avancés de l'IA « se souviendront » « du passé des gens et déduire les intentions ou feront des suggestions pour les objectifs de vie futurs. De graves préjudices ont déjà été identifiés lorsque la mémorisation est automatisée, par exemple pour les victimes de violence entre partenaires intimes.

Nous devons élargir les protections de données et les modèles de gouvernance pour répondre aux dommages potentiels de la confidentialité. Cette perturbation culturelle à venir nécessitera de réguler l'IA. Prenons maintenant le prochain tour culturel de l'IA.