Les faux mythes les plus populaires sur l'IA, et comment les surmonter
De l'idée que l'IA est intelligente en tant qu'homme, impartial, infaillible, à la croyance qu'il a ses propres intentions, ou qui fonctionne comme un cerveau humain. Le monde fascinant et tumultueux de l'intelligence artificielle est également peuplé de faux mythes, qui produisent une désinformation, des erreurs et des responsabilités. Et ils empêchent souvent de réels problèmes, ou discrimination algorithmique, concentration de pouvoir, manque de transparence, exclusion sociale.

Dans son livre 'Le théâtre des machines de pensée – 10 faux mythes sur l'intelligence artificielle et comment les surmonter »publiée par Digital Transformation Institute, Stefano Epifani démantèle les croyances erronées les plus répandues et les plus profondes sur l'IA, par le biais d'un chemin accessible à tous ceux qui veulent aborder ces thèmes sans tomber dans la rhétorique et les lieux communs.
Regardez dans les coulisses de l'IA
Le choix d'utiliser le terme « théâtre » dans le titre n'est pas seulement une métaphore, mais une clé de lecture critique de la question. L'intelligence artificielle, aujourd'hui, est souvent présentée et considérée comme un personnage avec une volonté, une conscience, un pouvoir. Comme un acteur sur scène sur lequel nous attribuons des rôles mythiques – Salvatore, Destroyer, Judge, Oracle -, prévoyant des attentes et des peurs.
Les faux mythes sur l'intelligence artificielle « ne sont pas seulement des erreurs conceptuelles », note l'auteur, « ce sont des dispositifs narratifs qui orientent l'imagination, le débat public, les choix politiques et les comportements collectifs ».
Commencer, par exemple, de l'impression généralisée que l'IA est intelligente en tant qu'être humain, car « c'est tout sauf intelligent, du moins au sens humain du terme. Pourtant, nous continuons à l'appeler ainsi, perpétuant un récit qui fait l'objectif de la réalité des faits aux suggestions de l'imagination collective ».
Le principal problème réside dans notre inclination – profondément humaine – pour interpréter ces compétences selon les catégories qui nous appartiennent: celles de l'intentionnalité, de la conscience, de la pensée. Mais ils sont une vision et une approche souvent trompeuses.
Étant donné que « les différentes formes de l'IA, aujourd'hui, ne sont pas intelligentes: elles simulent l'intelligence, miméan avec une cohérence linguistique impressionnante, mais restent sans compréhension, intentionnalité, conscience. Ils semblent intelligents ».


Ce n'est pas un cerveau artificiel
Un autre mirage est de penser que les fonctions comme le cerveau humain. Sur ce point, Epifani est drastique: « Lorsque nous parlons de réseaux de neurones artificiels, nous sommes confrontés à l'une des analogies les plus trompeuses de l'histoire de la technologie: celle qui compare le cerveau humain à une machine à calcul. Mais nous sommes vraiment prêts à penser que la pensée est réduite à un algorithme et à une conscience à une somme de nœuds? Je préfère les dire en tant que cerveau miniature.
Dans la pratique, le risque de banaliser et de déformer des problèmes et des facteurs complexes, essayant peut-être de les rendre plus compréhensibles et immédiats, est toujours à nos portes. Mais une approximation après l'autre peut conduire à des résultats, en particulier en termes de croyance et d'opinion du grand public, mal et loin de la réalité.
Faux mythes, mirages et hallucinations
Voici un autre cas, de termes et de récits sur l'IA qui peuvent être trompeurs ou peu correspondants à l'état des affaires: le phénomène que nous appelons « hallucination », dans les modèles génératifs de l'IA, consiste à la production de contenu qui semble plausible mais qui, à une analyse plus minutieuse, est complètement inventé, non fondé ou simplement faux.
Le modèle, en substance, dit des choses qui semblent vraies mais elles ne le sont pas. Mais l'IA ne dérange pas, ne trompe pas, ne délice pas. Je fais simplement des erreurs. Mais il le fait d'une manière si convaincante qu'elle trompe.
Donc, « pour expliquer la tromperie, nous avons recours à un terme emprunté à la psychologie clinique: hallucination, un phénomène perspicace et subjectif, qui suppose – coïncidence – un sujet. Un esprit. Une conscience. Une forme d'intériorité en bref. Appliquée à un système de l'AI, dont l'intériorité est similaire à celle d'une machine à laver, ce terme est un formidable sémantique, si ce n'est pas une erreur conceptuelle ».
Ce n'est pas une technologie comme les autres
Un autre aspect souvent pour clarifier et mieux comprendre les préoccupations de l'utilisation et du développement de l'IA par rapport à la durabilité environnementale: lorsque nous discutons de l'impact environnemental, en fait, nous devons éviter le risque de regarder uniquement la consommation directe d'énergie.
La bonne question à poser n'est pas simplement « combien consomme-t-elle? », Mais « quelle serait la consommation nécessaire pour ce processus particulier s'il n'y avait pas d'IA? ». En d'autres termes, il est nécessaire de comparer l'énergie utilisée avec ce que l'absence de technologie rendrait inévitable.
Dans le même temps, il y a un autre aspect trompeur: l'idée que l'intelligence artificielle « est une technologie comme l'autre – neutre, prévisible, réglable avec des outils traditionnels – est l'un des faux mythes les plus insidieux de la contemporanéité ». Si l'IA est une technologie comme les autres, « alors nous pouvons le traiter avec les outils réglementaires, cognitifs et politiques que nous avons toujours utilisés. Mais l'IA est différent. Parce qu'il observe, fournit, représente. Et ce faisant, change les conditions de notre capacité à connaître et à décider ».
