Pourquoi nous faisons plus confiance aux calculatrices qu'à l'IA

Pourquoi nous faisons plus confiance aux calculatrices qu’à l’IA

Crédit : Pixabay/CC0 Domaine public

L’intelligence artificielle peut ressembler à une calculatrice mais la relation des humains avec la première n’est pas aussi sereine qu’avec la seconde. On fait confiance aux résultats des ordinateurs, même si on ne sait pas exactement comment on peut arriver au résultat d’une opération complexe en peu de temps, alors que la relation avec l’intelligence artificielle (IA) génère un malaise chez les gens. Pourquoi? La raison en est que les machines ne cessent d’apprendre et plus elles exécutent des tâches nouvelles et inattendues, jusque-là confiées à l’intelligence humaine, plus les utilisateurs se méfient d’elles, car ils n’aiment pas trouver leurs propres prérogatives incarnées dans des machines. C’est ce qui crée un malaise.

On craint d’être dépassé par une super-intelligence et, en restant dans la sphère économique, d’être remplacé sur le lieu de travail par des machines. Et pourtant, nous baignons chaque jour dans les algorithmes et nous côtoyons des programmes tels que les bots dans nos rôles de clients du téléphone ou d’épargnants bancaires. On estime que les bots sont à l’origine d’environ 50% du trafic internet, que 40% des éditions Wikipédia sont l’œuvre d’agents numériques, sans oublier la présence sur les réseaux sociaux de nombreux comptes créés par des plateformes automatisées et, last but not least, le boom dans la curiosité populaire pour ChatGPT, capable de produire des textes écrits basés sur des conversations avec des utilisateurs.

En réalité, « les algorithmes fonctionnent et évoluent précisément parce qu’ils n’essaient plus d’être intelligents. Au contraire, ils peuvent être considérés comme capables de communiquer de manière créative et à des fins d’information, mais ils ne peuvent pas être considérés comme intelligents », explique Elena Esposito, professeure titulaire. de sociologie des processus culturels et communicatifs à Bielefeld et Bologne. Elle a récemment publié le livre « Comunicazione artificiale. Come gli algoritmi producono intelligenza sociale » (« Communication artificielle. Comment les algorithmes produisent l’intelligence sociale », Bocconi University Press, 2022).

« En fait, le but avec lequel les algorithmes sont programmés n’est pas de comprendre les données fournies par notre comportement en ligne. L’intention est d’identifier les corrélations entre les données et de les traiter afin qu’elles soient informatives pour les utilisateurs », explique Esposito, étudiant de Niklas. Luhmann, qui ne propose pas par hasard de passer de la définition de l’intelligence artificielle à celle de la communication artificielle, posant un nouveau modèle théorique pour rappeler que l’interlocuteur avec lequel nous interagissons n’est pas un être humain, mais un algorithme. Nous avons besoin de nouvelles règles et habitudes de comportement qui, compte tenu des multiples domaines d’application de l’IA, doivent être promues par les institutions nationales et supranationales, ainsi que par les familles et les individus, selon leurs domaines de pertinence respectifs.

Comment parler de communication artificielle peut-il réduire le malaise ressenti vis-à-vis de l’IA ?

D’abord parce que je fais l’hypothèse que l’analogie entre la performance des algorithmes et l’intelligence humaine, qui génère ce malaise, est trompeuse. De plus, parce qu’elle permet l’émergence de nouveaux éclairages sur les défis et les paradoxes que posent les technologies récentes. Les nombreux aspects positifs de l’intelligence algorithmique demeurent, de la disponibilité de plus d’informations à la plus grande rapidité avec laquelle les trouver, en passant par la rentabilité du processus. Mais on peut aussi se demander comment l’intervention croissante de l’IA affecte, par exemple, notre conception de l’espace public et le maintien de la cohésion sociale, compte tenu de la personnalisation progressive des informations et des services proposés à chaque individu, sans que celui-ci ait les a même demandés.

Cela crée une bulle dont il est difficile de sortir. Il devient plus difficile de se rendre compte qu’il peut y avoir quelque chose de différent de ce que vous savez déjà et de décider si vous voulez le découvrir ou non. En d’autres termes, l’individu ne sait plus ce que les autres savent et ce socle commun d’informations partagées qui fait que tout le monde a le sentiment de faire partie de l’ensemble sociétal se décompose. Mais la cohésion sociale et les marchés eux-mêmes dépendent de manière vitale de ce terrain d’entente partagé. Par ailleurs, on peut se demander quels sont les effets des différentes versions de l’IA dans des domaines spécifiques comme l’éducation ou, enfin, comment évolue notre perception du rapport entre réalité et fiction. De plus en plus souvent, en effet, on peut intervenir non seulement sur le réel mais aussi sur la fiction, qui n’est plus la fiction inaltérable du film commercial ou du roman, mais un espace avec lequel on peut interagir et au cours du récit, comme par exemple cela se produit dans les jeux vidéo.

La présence grandissante de l’IA dans nos vies change nos facultés ? Par exemple, savoir comment se souvenir et quoi oublier ?

Disons qu’il y a un nouveau rapport entre les gens et l’oubli. Autrefois on s’attachait surtout à se souvenir des choses et l’oubli procédait de lui-même, il intervenait spontanément pour sélectionner les informations qui ne devaient pas perdurer dans le temps. Maintenant la difficulté est inversée et consiste à se souvenir pour ne pas se souvenir ; vous devez essayer plus fort d’oublier car tous les souvenirs et informations sont conservés en ligne. On peut donc raisonner sur le paradoxe final auquel on arrive : pour oublier les souvenirs il vaut mieux les multiplier, en faire grimper un de la première place à la onzième dans les résultats d’un moteur de recherche, puisque l’on sait que les gens ont tendance à ne lire que les premiers résultats.

Est-il crédible ou illusoire que les machines puissent prédire notre avenir ?

L’avenir restera à jamais non écrit car il dépend du comportement humain, qui est en constante évolution. L’avenir reste ouvert, même si l’on peut retenir que l’IA offre une série de nouveaux outils pour faire face à l’incertitude du futur. Or, si jusqu’ici on a tenté de l’anticiper en s’appuyant sur le calcul des probabilités, désormais les algorithmes tentent d’identifier des corrélations entre différentes configurations possibles dans les grands ensembles de données. Et les corrélations mises en évidence ne sont pas forcément les plus probables, même si les algorithmes reposent en partie sur des structures probabilistes.

Le résultat d’essayer de prédire l’avenir est que les algorithmes produisent des indications sur l’avenir qui sont obscures pour les humains, car ils sont incapables de comprendre comment ils ont été générés. Ce sont des prédictions qui finissent par rappeler les pratiques divinatoires du monde antique, avec leurs réponses sibyllines et cryptiques. Précisément les pratiques dont la science a dû s’éloigner.

Big data, machine learning et bots, voici quelques-uns des termes qui décrivent le scénario high-tech dans lequel nous sommes plongés. Les implications de ces technologies qui se déroulent actuellement dans nos vies sont vastes. Ainsi se posent des questions telles que « serons-nous capables de contrôler quelque chose que nous ne comprenons pas entièrement ? » ou « Les machines ne deviennent-elles pas trop intelligentes ? »

Fourni par l’Université Bocconi