Anxiété liée à l’IA alors que les ordinateurs deviennent super intelligents

Anxiété liée à l’IA alors que les ordinateurs deviennent super intelligents

Depuis le meurtrier Terminator d’Hollywood jusqu’aux avertissements du génie Stephen Hawking ou des stars de la Silicon Valley, les craintes ont été alimentées selon lesquelles l’intelligence artificielle (IA) pourrait un jour détruire l’humanité.

Les titans de la technologie se précipitent pour créer une IA bien plus intelligente que les humains, poussant le président américain Joe Biden à imposer une réglementation d’urgence et l’Union européenne cherchant à adopter une législation majeure d’ici la fin de cette année.

Un sommet de deux jours qui débutera mercredi à Londres explorera les garanties réglementaires contre les risques liés à l’IA tels que ceux ci-dessous.

Voleur d’emploi ?

Le succès de ChatGPT d’OpenAI a déclenché un débat sur la question de savoir si « l’IA générative » capable de produire rapidement du texte, des images et du son à partir de commandes simples dans le langage courant constitue une menace considérable pour les emplois occupés par les personnes.

Les machines automatisées sont déjà utilisées pour effectuer le travail dans les usines, les entrepôts et les champs.

L’IA générative, cependant, peut cibler les emplois de col blanc tels que les avocats, les médecins, les enseignants, les journalistes et même les programmeurs informatiques.

Un rapport du cabinet de conseil McKinsey estime que d’ici la fin de cette décennie, jusqu’à 30 % des heures travaillées aux États-Unis pourraient être automatisées, une tendance accélérée par l’IA générative.

Les partisans de cette technologie ont invoqué la notion d’un revenu de base universel dans lequel les machines génèrent de la richesse qui serait partagée avec des personnes libérées du fardeau du travail.

Mais il est également possible que les entreprises récoltent des bénéfices grâce à une efficacité améliorée, laissant ceux qui sont sans emploi se débrouiller seuls.

Imitateur?

Les artistes n’ont pas tardé à protester contre les logiciels tels que Dall-E, Midjourney et Stable Diffusion, capables de créer des images dans presque tous les styles à la demande.

Les codeurs et rédacteurs informatiques ont emboîté le pas, critiquant les créateurs d’IA pour avoir « formé » des logiciels sur leur travail, leur permettant de reproduire leurs styles ou leurs compétences sans autorisation ni compensation.

Les modèles d’IA ont été enseignés à l’aide d’énormes quantités d’informations et d’images trouvées en ligne.

« C’est sur cela qu’il s’entraîne, une fraction de l’énorme production de l’humanité », a déclaré Sam Altman, co-fondateur d’OpenAI, lors d’une conférence en septembre.

« Je pense que ce sera un outil qui amplifiera les êtres humains, et non les remplacera. »

Des outils de désinformation ?

Les fausses nouvelles et les deepfakes existent depuis des années, mais le fait de pouvoir les diffuser facilement à l’aide de l’IA générative fait craindre une tromperie en ligne généralisée.

Les élections courent le risque d’être remportées par ceux qui sont les plus aptes à propager la désinformation, affirme Gary Marcus, spécialiste des sciences cognitives et expert en IA.

« La démocratie dépend de l’accès à l’information nécessaire pour prendre les bonnes décisions », a déclaré Marcus.

« Si personne ne sait ce qui est vrai et ce qui ne l’est pas, c’est fini ».

Fraude?

L’IA générative permet aux fraudeurs de créer plus facilement des e-mails de phishing convaincants, et peut-être même d’en apprendre suffisamment sur les cibles pour personnaliser leurs approches.

La technologie leur permet de copier un visage ou une voix, et ainsi inciter les gens à se laisser tromper, par exemple en prétendant qu’un proche est en danger.

Le président américain Biden a qualifié la capacité de l’IA à imiter la voix des gens d’« époustouflante » lors de la signature de son récent décret visant cette technologie.

Il existe même des modèles de langage spécialement conçus pour produire de tels contenus malveillants.

Des modèles humains

Comme pour les autres technologies ayant un potentiel positif ou négatif, le principal danger vient des humains qui les utilisent.

Étant donné que l’IA est formée à partir de données mises sur le Web par des humains, elle peut refléter les préjugés, les préjugés et les injustices de la société.

L’IA a également le potentiel de faciliter la création d’armes biologiques ; pirater des banques ou des réseaux électriques ; exercer une surveillance gouvernementale oppressive, et plus encore.

Le seigneur de l’IA ?

Certains acteurs du secteur craignent que l’IA ne devienne si intelligente qu’elle puisse prendre le contrôle des humains.

« Il n’est pas difficile d’imaginer qu’à un moment donné dans le futur, nos ordinateurs intelligents deviendront aussi intelligents, voire plus, que les humains », a déclaré Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI, lors d’une récente conférence TED AI.

« L’impact d’une telle intelligence artificielle va être vraiment vaste. »

OpenAI et ses concurrents soutiennent que l’objectif est que l’IA profite à l’humanité, en résolvant des problèmes longtemps insolubles tels que le changement climatique.

Dans le même temps, les leaders de l’industrie de l’IA réclament une réglementation réfléchie pour prévenir des risques tels que l’extinction de l’humanité.