L'IA va-t-elle vraiment détruire l'humanité ?

L’IA va-t-elle vraiment détruire l’humanité ?

Le groupe Stop Killer Robots a explicitement rejeté le scénario Terminator.

Les avertissements fusent de toutes parts : l’intelligence artificielle représente un risque existentiel pour l’humanité et doit être enchaînée avant qu’il ne soit trop tard.

Mais quels sont ces scénarios catastrophes et comment les machines sont-elles censées anéantir l’humanité ?

Trombones de malheur

La plupart des scénarios de catastrophe commencent au même endroit : les machines dépasseront les capacités humaines, échapperont au contrôle humain et refuseront d’être éteintes.

« Une fois que nous avons des machines qui ont un objectif d’auto-préservation, nous avons des problèmes », a déclaré Yoshua Bengio, universitaire en intelligence artificielle, lors d’un événement ce mois-ci.

Mais parce que ces machines n’existent pas encore, imaginer comment elles pourraient condamner l’humanité est souvent laissé à la philosophie et à la science-fiction.

Le philosophe Nick Bostrom a écrit à propos d’une « explosion de l’intelligence » qui, selon lui, se produira lorsque des machines super intelligentes commenceront à concevoir leurs propres machines.

Il a illustré l’idée avec l’histoire d’une IA super intelligente dans une usine de trombones.

L’IA a pour objectif ultime de maximiser la production de trombones et ainsi « procède en convertissant d’abord la Terre, puis des morceaux de plus en plus importants de l’univers observable en trombones ».

Les idées de Bostrom ont été rejetées par beaucoup comme de la science-fiction, notamment parce qu’il a soutenu séparément que l’humanité est une simulation informatique et a soutenu des théories proches de l’eugénisme.

Le philosophe Nick Bostrom a imaginé l'idée d'une IA super intelligente convertissant la Terre en trombones

Le philosophe Nick Bostrom a imaginé l’idée d’une IA super intelligente convertissant la Terre en trombones.

Il s’est également récemment excusé après la découverte d’un message raciste qu’il avait envoyé dans les années 1990.

Pourtant, ses réflexions sur l’IA ont été extrêmement influentes, inspirant à la fois Elon Musk et le professeur Stephen Hawking.

Le Terminateur

Si des machines super intelligentes doivent détruire l’humanité, elles ont sûrement besoin d’une forme physique.

Le cyborg aux yeux rouges d’Arnold Schwarzenegger, envoyé du futur pour mettre fin à la résistance humaine par une IA dans le film « The Terminator », s’est révélé une image séduisante, notamment auprès des médias.

Mais les experts ont rejeté l’idée.

« Il est peu probable que ce concept de science-fiction devienne une réalité dans les décennies à venir, voire jamais », a écrit le groupe de campagne Stop Killer Robots dans un rapport de 2021.

Cependant, le groupe a averti que donner aux machines le pouvoir de prendre des décisions sur la vie et la mort est un risque existentiel.

L’experte en robotique Kerstin Dautenhahn, de l’Université de Waterloo au Canada, a minimisé ces craintes.

Le spécialiste de l'IA Stuart Russell estime que les vrais robots tueurs seront petits, aéroportés et viendront en essaims

Le spécialiste de l’IA Stuart Russell estime que les vrais robots tueurs seront petits, aéroportés et viendront en essaims.

Elle a déclaré à l’AFP qu’il était peu probable que l’IA donne aux machines des capacités de raisonnement plus élevées ou leur imprègne le désir de tuer tous les humains.

« Les robots ne sont pas mauvais », a-t-elle déclaré, même si elle a admis que les programmeurs pouvaient leur faire faire des choses mauvaises.

Produits chimiques mortels

Un scénario de science-fiction moins ouvertement voit des « mauvais acteurs » utiliser l’IA pour créer des toxines ou de nouveaux virus et les libérer sur le monde.

Les grands modèles de langage comme GPT-3, qui a été utilisé pour créer ChatGPT, s’avèrent extrêmement efficaces pour inventer de nouveaux agents chimiques horribles.

Un groupe de scientifiques qui utilisaient l’IA pour aider à découvrir de nouveaux médicaments ont mené une expérience où ils ont modifié leur IA pour rechercher des molécules nocives à la place.

Ils ont réussi à générer 40 000 agents potentiellement toxiques en moins de six heures, comme le rapporte la revue Nature Machine Intelligence.

L’experte en intelligence artificielle Joanna Bryson de l’école Hertie de Berlin a déclaré qu’elle pouvait imaginer que quelqu’un trouve un moyen de propager plus rapidement un poison comme l’anthrax.

« Mais ce n’est pas une menace existentielle », a-t-elle déclaré à l’AFP. « C’est juste une arme horrible et horrible. »

Stephen Hawking a fait valoir en 2014 qu'à un moment donné dans le futur, les machines superintelligentes dépasseront les capacités humaines et ultim

Stephen Hawking a fait valoir en 2014 qu’à un moment donné dans le futur, les machines superintelligentes dépasseront les capacités humaines et qu’en fin de compte, notre espèce ne sera plus en mesure de rivaliser.

Espèces dépassées

Les règles d’Hollywood dictent que les catastrophes d’époque doivent être soudaines, immenses et dramatiques – mais que se passerait-il si la fin de l’humanité était lente, silencieuse et non définitive ?

« A la fin la plus sombre, notre espèce pourrait se terminer sans successeur », déclare le philosophe Huw Price dans une vidéo promotionnelle pour le Centre d’étude du risque existentiel de l’Université de Cambridge.

Mais il a dit qu’il y avait « des possibilités moins sombres » où les humains augmentés par une technologie de pointe pourraient survivre.

« L’espèce purement biologique finit par disparaître, en ce sens qu’il n’y a pas d’humains autour qui n’ont pas accès à cette technologie habilitante », a-t-il déclaré.

L’apocalypse imaginée est souvent formulée en termes d’évolution.

Stephen Hawking a fait valoir en 2014 qu’en fin de compte, notre espèce ne serait plus en mesure de rivaliser avec les machines d’IA, déclarant à la BBC que cela pourrait « signifier la fin de la race humaine ».

Geoffrey Hinton, qui a passé sa carrière à construire des machines qui ressemblent au cerveau humain, dernièrement pour Google, parle en termes similaires de « superintelligences » dépassant simplement les humains.

Il a récemment déclaré à la chaîne de télévision américaine PBS qu’il était possible que « l’humanité ne soit qu’une phase passagère dans l’évolution de l’intelligence ».