Selon une étude, l'apport humain renforce l'acceptation de l'IA par les citoyens et leur perception de l'équité

L’IA ressemble à une force imparable. Mais ce n’est pas une panacée pour les entreprises ou la société

Dans la mythologie grecque, Prométhée est crédité d'avoir donné le feu aux humains ainsi que « l'étincelle » qui a stimulé la civilisation. L’une des conséquences involontaires du « don » de Prométhée fut que le besoin de dieux célestes diminua. Les humains modernes ont fait toutes sortes de choses qui entraînent des conséquences involontaires similaires, depuis l’utilisation de CFC qui ont conduit à un trou dans la couche d’ozone jusqu’à la construction de systèmes qu’ils ne comprennent pas ou ne peuvent pas contrôler entièrement.

En s'attaquant à l'intelligence artificielle (IA), les humains semblent avoir endossé le rôle de Prométhée, offrant apparemment aux machines le « feu » qui a déclenché la civilisation.

Il est préférable de laisser la prévision de l’avenir aux chamanes et aux futurologues. Mais nous pourrions être mieux informés sur les dangers qui découlent du fonctionnement de l’IA et déterminer comment éviter les pièges.

Premièrement, nous devons reconnaître que l’IA est extrêmement prometteuse pour la société humaine. L'IA devient omniprésente, depuis les tâches banales telles que la rédaction d'e-mails jusqu'aux paramètres complexes qui nécessitent une expertise humaine.

L’IA – par laquelle nous entendons les grands modèles de langage (LLM) qui semblent « comprendre » et produire le langage humain – sont des machines de prédiction. Ils sont formés sur de grands ensembles de données qui leur permettent d’établir des associations statistiques entre un grand nombre de variables et de prédire la suite.

Si vous avez utilisé Google, vous en avez peut-être expérimenté une version grâce à ses invites prédictives. Par exemple, vous pouvez saisir « comment conduire » et Google le complétera par « comment conduire une voiture automatique ». Il est peu probable qu'il soit complété par « comment conduire un avion ». Google l'établit en examinant l'historique des mots qui suivent « comment conduire ». Plus l’ensemble de données sur lequel il a été formé est grand, plus sa prédiction sera précise.

Des variantes de cette logique sont utilisées dans toutes ses applications actuelles. La force de l’IA, bien entendu, réside dans sa capacité à traiter des quantités incalculables de données et à les extrapoler pour les appliquer à l’avenir.

Mais cette force est aussi sa faiblesse : elle la rend vulnérable à un phénomène que les spécialistes du management appellent le « piège de la confiance ». Il s’agit de la tendance à supposer que, puisque les décisions antérieures ont conduit à des résultats positifs, il sera toujours acceptable de continuer de la même manière à l’avenir.

Prenons un exemple : les intervalles entre les maintenances des pièces critiques de l’avion. Si l’augmentation des intervalles dans le passé a donné de bons résultats (aucun échec), ces mesures pourraient être largement adoptées et il pourrait y avoir une pression pour augmenter davantage les intervalles. Pourtant, il s’est avéré que c’était une recette pour un désastre. Le vol 261 d'Alaska Airlines s'est écrasé dans l'océan Pacifique, tuant les 88 personnes à bord parce que, peut-être influencé par ses succès précédents, la décision a été prise de retarder la maintenance d'une pièce critique.

L’IA pourrait bien exacerber cette tendance. Cela peut détourner l’attention des signes indiquant l’existence de problèmes, car l’analyse de l’IA alimente le tableau pour éclairer la prise de décision.

L’IA peut également extrapoler les résultats du passé et prendre des décisions sans intervention humaine. Prenons l’exemple des voitures sans conducteur, qui ont été impliquées dans plus d’une douzaine de cas de décès de piétons. Aucun ensemble de données, quelle que soit sa taille, ne peut fournir une formation sur chaque action potentielle qu'un piéton pourrait entreprendre. L’IA ne peut pas encore rivaliser avec la discrétion humaine dans des situations comme celles-ci.

Mais ce qui est plus inquiétant encore, c’est que l’IA peut diminuer les capacités humaines au point de perdre la capacité de déterminer quand intervenir. Les chercheurs ont découvert que l’utilisation de l’IA entraîne une dégradation des compétences, un problème particulièrement préoccupant lorsque les décisions sur le lieu de travail impliquent des conséquences de vie ou de mort.

Amazon a appris à ses dépens à laisser les « machines de prédiction » prendre des décisions lorsque son outil de recrutement interne était discriminatoire à l'égard des femmes, car il était formé sur une base de données s'étalant sur une période de dix ans et majoritairement en faveur des hommes. Ce sont bien entendu des exemples dont nous avons connaissance. À mesure que les LLM deviennent plus complexes et que leur fonctionnement interne devient plus opaque, nous pourrions même ne pas nous rendre compte quand les choses tournent mal.

Regarder en arrière

Parce que l’IA reflète le passé, sa capacité à susciter une innovation radicale pourrait également être limitée. Par définition, une innovation radicale est une rupture avec le passé.

Considérez le contexte de la photographie. Des photographes innovants ont réussi à changer la façon dont le business était mené – l’histoire du photojournalisme est un exemple de la façon dont quelque chose qui a commencé comme un moyen d’illustrer l’actualité a progressivement acquis un pouvoir narratif et a été élevé au rang de forme d’art.

De même, des créateurs de mode tels que Coco Chanel ont modernisé les vêtements féminins, les libérant des jupes longues et des corsets inconfortables qui ont perdu de leur pertinence dans le monde d'après-guerre.

Le fondateur du fabricant de vêtements de sport Under Armour, l'ancien joueur de football universitaire Kevin Plank, a profité de l'inconfort causé par les maillots de corps en coton moites pour développer des vêtements utilisant des microfibres qui évacuent l'humidité du corps. L’IA peut améliorer ces innovations. Mais en raison de son fonctionnement sous sa forme actuelle, il est peu probable qu’il soit à l’origine de nouveautés.

En termes simples, l’IA est incapable de voir ou de nous montrer le monde d’une nouvelle manière, une lacune que nous avons appelée le « problème de l’IA Chris Rock », inspiré d’une blague du comédien sur la fabrication de balles à un prix prohibitif. En suggérant un remède qui impliquait un « contrôle des balles » plutôt qu'un contrôle des armes à feu pour lutter contre la violence, Rock a fait rire en exploitant l'air du temps culturel et en présentant une solution innovante. Ce faisant, il a également souligné l’absurdité de la situation, quelque chose qui nécessite une perception humaine.

L’IA montre ses défauts lorsque ce qui fonctionnait auparavant perd de sa pertinence ou de son pouvoir de résolution de problèmes. Les succès passés de l’IA signifient qu’elle se développera dans des cercles de plus en plus larges, mais cela constitue en soi un piège de confiance que les humains devraient éviter.

Prométhée fut finalement sauvé par Hercule. Aucun dieu de ce type ne se tient dans les coulisses des humains. Cela implique que plus, plutôt que moins, la responsabilité repose sur nos épaules. Cela implique notamment de veiller à ce que nos représentants élus assurent une surveillance réglementaire de l’IA. Après tout, nous ne pouvons pas laisser les technocrates jouer avec le feu à nos dépens.