Vendre vos intentions avant de les connaître
Dans un avenir proche, nous pourrions voir des assistants IA prévoir et influencer nos prises de décision à un stade précoce, et vendre ces « intentions » en développement en temps réel aux entreprises capables de répondre aux besoins, avant même que nous réalisions que nous avons pris notre décision.
C'est ce que disent les éthiciens de l'IA de l'Université de Cambridge, qui affirment que nous sommes à l'aube d'un « nouveau marché lucratif mais inquiétant pour les signaux numériques d'intention », de l'achat de billets de cinéma au vote pour des candidats. Ils appellent cela « l’économie d’intention ».
Des chercheurs du Leverhulme Center for the Future of Intelligence (LCFI) de Cambridge affirment que l’explosion de l’IA générative et notre familiarité croissante avec les chatbots ouvrent une nouvelle frontière des « technologies persuasives » – une frontière évoquée dans les récentes annonces des géants de la technologie.
Les agents d’IA « anthropomorphes », depuis les assistants chatbots jusqu’aux tuteurs et petites amies numériques, auront accès à de grandes quantités de données psychologiques et comportementales intimes, souvent glanées via un dialogue oral informel.
Selon les chercheurs, cette IA combinera la connaissance de nos habitudes en ligne avec une étrange capacité à s'adapter à nous d'une manière que nous trouvons réconfortante – en imitant les personnalités et en anticipant les réponses souhaitées – pour construire des niveaux de confiance et de compréhension qui permettent une manipulation sociale à l'échelle industrielle.
« Des ressources énormes sont dépensées pour positionner les assistants en IA dans tous les domaines de la vie, ce qui devrait soulever la question de savoir à qui servent les intérêts et les objectifs de ces soi-disant assistants », a déclaré le Dr Yaqub Chaudhary, chercheur invité au LCFI.
« Ce que les gens disent lors d'une conversation, la manière dont ils le disent et le type de déductions qui peuvent en résulter en temps réel sont bien plus intimes que de simples enregistrements d'interactions en ligne. »
« Nous prévenons que des outils d'IA sont déjà en cours de développement pour susciter, déduire, collecter, enregistrer, comprendre, prévoir et, finalement, manipuler et marchandiser les plans et objectifs humains. »
Le Dr Jonnie Penn, historien de la technologie au LCFI de Cambridge, a déclaré : « Pendant des décennies, l'attention a été la monnaie d'Internet. Partager votre attention avec les plateformes de médias sociaux telles que Facebook et Instagram a stimulé l'économie en ligne. »
« À moins d'être réglementée, l'économie de l'intention traitera vos motivations comme une nouvelle monnaie. Ce sera une ruée vers l'or pour ceux qui ciblent, dirigent et vendent les intentions humaines. »
« Nous devrions commencer à réfléchir à l'impact probable qu'un tel marché aurait sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence équitable sur le marché, avant de devenir victimes de ses conséquences involontaires. »
Dans un Revue de la science des données de Harvard Dans leur article, Penn et Chaudhary écrivent que l'économie de l'intention sera l'économie de l'attention « tracée dans le temps » : profilant la manière dont l'attention et le style de communication de l'utilisateur sont liés aux modèles de comportement et aux choix que nous finissons par faire.
« Même si certaines intentions sont éphémères, classer et cibler les intentions qui persistent seront extrêmement rentables pour les annonceurs », a déclaré Chaudhary.
Dans une économie d'intention, les grands modèles linguistiques ou LLM pourraient être utilisés pour cibler, à faible coût, la cadence, la politique, le vocabulaire, l'âge, le sexe, l'histoire en ligne d'un utilisateur et même ses préférences en matière de flatterie et de sympathie, écrivent les chercheurs.
Cette collecte d'informations serait liée à des réseaux d'enchères négociés pour maximiser la probabilité d'atteindre un objectif donné, comme la vente d'une sortie au cinéma (« Vous avez mentionné le fait de vous sentir surmené, dois-je vous réserver le billet de cinéma dont nous avions parlé ? »).
Cela pourrait inclure l’orientation des conversations au service de plateformes particulières, d’annonceurs, d’entreprises et même d’organisations politiques, affirment Penn et Chaudhary.
Alors que les chercheurs affirment que l’économie intentionnelle est actuellement une « aspiration » pour l’industrie technologique, ils suivent les premiers signes de cette tendance à travers des recherches publiées et les allusions laissées par plusieurs acteurs majeurs de la technologie.
Il s'agit notamment d'un appel ouvert pour « des données qui expriment l'intention humaine… dans n'importe quelle langue, sujet et format » dans un article de blog OpenAI de 2023, tandis que le directeur des produits chez Shopify – un partenaire d'OpenAI – a parlé de l'arrivée des chatbots « pour obtenir explicitement le l'intention de l'utilisateur » lors d'une conférence la même année.
Le PDG de Nvidia a parlé publiquement de l'utilisation des LLM pour comprendre l'intention et le désir, tandis que Meta a publié la recherche « Intentonomy », un ensemble de données pour la compréhension de l'intention humaine, en 2021.
En 2024, le nouveau cadre de développement « App Intents » d'Apple pour connecter des applications à Siri (l'assistant personnel à commande vocale d'Apple), comprend des protocoles pour « prédire les actions qu'une personne pourrait entreprendre à l'avenir » et « pour suggérer l'intention de l'application à quelqu'un dans le futur en utilisant vos prédictions [the developer] fournir. »
« On dit que les agents d'IA tels que CICERO de Meta parviennent à un niveau de jeu humain dans le jeu Diplomacy, qui dépend de la déduction et de la prédiction des intentions, et de l'utilisation d'un dialogue persuasif pour faire avancer sa position », a déclaré Chaudhary.
« Ces entreprises vendent déjà notre attention. Pour obtenir un avantage commercial, la prochaine étape logique consiste à utiliser la technologie qu'elles sont clairement en train de développer pour prévoir nos intentions et vendre nos désirs avant même que nous ayons pleinement compris ce qu'ils sont. »
Penn souligne que ces développements ne sont pas nécessairement mauvais, mais qu’ils peuvent être destructeurs. « La sensibilisation du public à ce qui s'en vient est la clé pour garantir que nous ne nous engageons pas sur la mauvaise voie », a-t-il déclaré.