L’IA va-t-elle vraiment détruire l’humanité ?
Les avertissements fusent de toutes parts : l’intelligence artificielle représente un risque existentiel pour l’humanité et doit être enchaînée avant qu’il ne soit trop tard.
Mais quels sont ces scénarios catastrophes et comment les machines sont-elles censées anéantir l’humanité ?
Trombones de malheur
La plupart des scénarios de catastrophe commencent au même endroit : les machines dépasseront les capacités humaines, échapperont au contrôle humain et refuseront d’être éteintes.
« Une fois que nous avons des machines qui ont un objectif d’auto-préservation, nous avons des problèmes », a déclaré Yoshua Bengio, universitaire en intelligence artificielle, lors d’un événement ce mois-ci.
Mais parce que ces machines n’existent pas encore, imaginer comment elles pourraient condamner l’humanité est souvent laissé à la philosophie et à la science-fiction.
Le philosophe Nick Bostrom a écrit à propos d’une « explosion de l’intelligence » qui, selon lui, se produira lorsque des machines super intelligentes commenceront à concevoir leurs propres machines.
Il a illustré l’idée avec l’histoire d’une IA super intelligente dans une usine de trombones.
L’IA a pour objectif ultime de maximiser la production de trombones et ainsi « procède en convertissant d’abord la Terre, puis des morceaux de plus en plus importants de l’univers observable en trombones ».
Les idées de Bostrom ont été rejetées par beaucoup comme de la science-fiction, notamment parce qu’il a soutenu séparément que l’humanité est une simulation informatique et a soutenu des théories proches de l’eugénisme.
Il s’est également récemment excusé après la découverte d’un message raciste qu’il avait envoyé dans les années 1990.
Pourtant, ses réflexions sur l’IA ont été extrêmement influentes, inspirant à la fois Elon Musk et le professeur Stephen Hawking.
Le Terminateur
Si des machines super intelligentes doivent détruire l’humanité, elles ont sûrement besoin d’une forme physique.
Le cyborg aux yeux rouges d’Arnold Schwarzenegger, envoyé du futur pour mettre fin à la résistance humaine par une IA dans le film « The Terminator », s’est révélé une image séduisante, notamment auprès des médias.
Mais les experts ont rejeté l’idée.
« Il est peu probable que ce concept de science-fiction devienne une réalité dans les décennies à venir, voire jamais », a écrit le groupe de campagne Stop Killer Robots dans un rapport de 2021.
Cependant, le groupe a averti que donner aux machines le pouvoir de prendre des décisions sur la vie et la mort est un risque existentiel.
L’experte en robotique Kerstin Dautenhahn, de l’Université de Waterloo au Canada, a minimisé ces craintes.
Elle a déclaré à l’AFP qu’il était peu probable que l’IA donne aux machines des capacités de raisonnement plus élevées ou leur imprègne le désir de tuer tous les humains.
« Les robots ne sont pas mauvais », a-t-elle déclaré, même si elle a admis que les programmeurs pouvaient leur faire faire des choses mauvaises.
Produits chimiques mortels
Un scénario de science-fiction moins ouvertement voit des « mauvais acteurs » utiliser l’IA pour créer des toxines ou de nouveaux virus et les libérer sur le monde.
Les grands modèles de langage comme GPT-3, qui a été utilisé pour créer ChatGPT, s’avèrent extrêmement efficaces pour inventer de nouveaux agents chimiques horribles.
Un groupe de scientifiques qui utilisaient l’IA pour aider à découvrir de nouveaux médicaments ont mené une expérience où ils ont modifié leur IA pour rechercher des molécules nocives à la place.
Ils ont réussi à générer 40 000 agents potentiellement toxiques en moins de six heures, comme le rapporte la revue Nature Machine Intelligence.
L’experte en intelligence artificielle Joanna Bryson de l’école Hertie de Berlin a déclaré qu’elle pouvait imaginer que quelqu’un trouve un moyen de propager plus rapidement un poison comme l’anthrax.
« Mais ce n’est pas une menace existentielle », a-t-elle déclaré à l’AFP. « C’est juste une arme horrible et horrible. »
Espèces dépassées
Les règles d’Hollywood dictent que les catastrophes d’époque doivent être soudaines, immenses et dramatiques – mais que se passerait-il si la fin de l’humanité était lente, silencieuse et non définitive ?
« A la fin la plus sombre, notre espèce pourrait se terminer sans successeur », déclare le philosophe Huw Price dans une vidéo promotionnelle pour le Centre d’étude du risque existentiel de l’Université de Cambridge.
Mais il a dit qu’il y avait « des possibilités moins sombres » où les humains augmentés par une technologie de pointe pourraient survivre.
« L’espèce purement biologique finit par disparaître, en ce sens qu’il n’y a pas d’humains autour qui n’ont pas accès à cette technologie habilitante », a-t-il déclaré.
L’apocalypse imaginée est souvent formulée en termes d’évolution.
Stephen Hawking a fait valoir en 2014 qu’en fin de compte, notre espèce ne serait plus en mesure de rivaliser avec les machines d’IA, déclarant à la BBC que cela pourrait « signifier la fin de la race humaine ».
Geoffrey Hinton, qui a passé sa carrière à construire des machines qui ressemblent au cerveau humain, dernièrement pour Google, parle en termes similaires de « superintelligences » dépassant simplement les humains.
Il a récemment déclaré à la chaîne de télévision américaine PBS qu’il était possible que « l’humanité ne soit qu’une phase passagère dans l’évolution de l’intelligence ».