L’IA rend intenable la philosophie de la Silicon Valley consistant à « agir vite et casser les choses »
La devise officieuse de la Silicon Valley est depuis longtemps « Avancez vite et cassez les choses ». Il repose sur l’hypothèse selon laquelle, pour créer une technologie de pointe et avoir une longueur d’avance sur la concurrence, les entreprises doivent accepter que les choses soient endommagées au cours du processus.
Cependant, cette approche peut avoir des implications au-delà de la simple économie. Cela peut mettre les gens en danger et être contraire à l’éthique. Alors que nous célébrons le premier anniversaire de la sortie du chatbot IA ChatGPT, il convient de se demander si les grandes entreprises technologiques pourraient se contenter d’avancer lentement et de veiller à ne rien casser.
Les capacités impressionnantes de ChatGPT ont fait sensation. Mais certains commentateurs n’ont pas tardé à souligner des problèmes tels que la possibilité que les étudiants trichent lors de leurs devoirs. Plus largement, le chatbot a intensifié le débat sur la manière de contrôler l’IA, une technologie transformatrice présentant d’énormes avantages potentiels et des risques d’importance comparable.
Examinons également le bilan de la Silicon Valley en matière d’autres technologies. Les réseaux sociaux étaient censés nous rassembler. Au lieu de cela, il a menacé la démocratie et produit des armées de trolls. Les crypto-monnaies, présentées comme remettant en cause le statu quo financier, ont été un désastre environnemental et ont été vulnérables à la fraude.
L’avènement de l’ordinateur personnel était censé faciliter notre vie professionnelle. Cela a été le cas, mais au prix de pertes massives d’emplois dont le marché du travail a mis plus d’une décennie à se remettre.
Ce n’est pas que les technologies en elles-mêmes soient mauvaises. Cependant, l’idéologie au sein de laquelle ils sont développés peut poser problème. Et à mesure que la technologie imprègne de plus en plus notre vie quotidienne, les « choses » qui se brisent pourraient potentiellement devenir des vies humaines.
Changement d’approche
« Agir vite et casser les choses » pourrait également s’avérer économiquement erroné, poussant les investisseurs à se précipiter vers la nouveauté plutôt que vers la valeur, comme ils l’ont fait dans la bulle Internet du début des années 2000. L’idée suppose que même si les choses tournent mal, nous serons en mesure de les réparer rapidement, et ainsi les dommages seront limités. Pourtant, si l’on examine l’histoire de la Silicon Valley, cela s’est révélé être un problème à plusieurs égards.
Identifier qu’il y a un problème n’est pas la même chose que trouver sa cause. Une fois qu’une technologie a été déployée, l’environnement dans lequel elle est utilisée peut être si complexe qu’il faut des années pour comprendre exactement ce qui ne va pas.
Le système judiciaire américain, par exemple, utilise l’IA depuis plus d’une décennie pour faciliter les décisions en matière de libération sous caution. Ceux-ci décident qui doit être libéré avant le procès contre une caution en espèces.
L’IA a été introduite non seulement comme un moyen de réduire le risque de fuite des accusés, mais aussi pour lutter contre les préjugés raciaux, les juges blancs étant plus susceptibles de libérer les accusés blancs. Cependant, les algorithmes ont produit le résultat inverse, avec moins d’accusés noirs libérés.
Les ingénieurs ont continué à introduire de nouvelles versions des algorithmes d’IA, dans l’espoir de réduire les biais. Rien n’a fonctionné. Puis, en 2019, soit 17 ans après l’introduction du système, un chercheur a découvert que le problème ne venait pas de l’IA elle-même, mais de la manière dont les juges l’utilisaient.
Ils étaient plus susceptibles d’annuler les décisions qui ne correspondaient pas à leurs stéréotypes, et le problème résidait dans l’interaction entre les juges et l’IA. Indépendamment, chacun pourrait prendre des décisions quelque peu appropriées. Ensemble, ce fut un désastre.
Conséquences différées
Une autre raison pour laquelle l’approche de la Silicon Valley est risquée est que les conséquences des nouvelles technologies peuvent mettre beaucoup de temps à se manifester. Cela signifie qu’au moment où nous prenons conscience du mal causé, il est déjà trop tard.
Le système de protection sociale néerlandais, par exemple, s’est fortement appuyé sur les algorithmes d’IA pour détecter la fraude. Cette approche s’est révélée problématique à bien des égards, mais il s’est avéré en particulier qu’elle utilisait l’origine ethnique et la nationalité comme facteur de risque important.
Il a fallu des années pour que le véritable problème devienne apparent. Et à ce moment-là, certaines personnes avaient été tellement affectées par les décisions assistées par l’IA – leur demandant de restituer des centaines de milliers d’euros pour une simple erreur sur un formulaire – que certaines se sont suicidées.
Nettoyer le désordre
« Agir vite et casser des choses » signifie également que quelqu’un d’autre, quelque part, devra nettoyer le désordre. Pour ceux qui produisent la technologie, c’est une manière de se dégager de la responsabilité de ses résultats, que les entreprises en soient conscientes ou non. Les réseaux sociaux en sont un exemple accablant.
Les algorithmes de « suggestion » des médias sociaux, également alimentés par l’IA, ont créé une multitude de problèmes, depuis la promotion de la désinformation et des discours de haine simplement parce que ces choses créent davantage d’engagement, jusqu’à la facilitation du harcèlement et aux effets négatifs sur la santé mentale. Pourtant, nous avons encore du mal à enrayer ces problèmes, les plateformes de médias sociaux refusant d’assumer la responsabilité du contenu dont elles font la promotion et dont elles bénéficient.
Le premier anniversaire de ChatGPT nous offre l’occasion de revenir sur les leçons qui peuvent être tirées des avancées technologiques précédentes. Cela nous aide à comprendre qu’il est plus facile d’éviter les erreurs que de les corriger, surtout lorsque des vies humaines sont en jeu.