Les gouvernements et les entreprises technologiques s'engagent à coopérer contre les risques liés à l'IA lors du sommet de Séoul
Plus d'une douzaine de pays et certaines des plus grandes entreprises technologiques du monde se sont engagés mercredi à coopérer contre les dangers potentiels de l'intelligence artificielle, notamment sa capacité à échapper au contrôle humain, à la clôture d'un sommet mondial à Séoul.
La sécurité de l’IA était au centre de l’ordre du jour de ce rassemblement de deux jours. Dans la dernière déclaration, plus de deux douzaines de pays, dont les États-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe, y compris les « risques graves ».
Ces risques pourraient inclure un système d'IA aidant « les acteurs non étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques », indique un communiqué commun des deux pays.
Ces dangers incluent également un modèle d'IA qui pourrait potentiellement « échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes », ont-ils ajouté.
La déclaration des ministres fait suite à l'engagement pris mardi par certaines des plus grandes sociétés d'IA, notamment le fabricant de ChatGPT OpenAI et Google DeepMind, de partager la manière dont elles évaluent les risques de leur technologie, y compris ce qui est considéré comme « intolérable ».
Les 16 entreprises technologiques se sont également engagées à ne pas déployer de système dans lequel elles ne peuvent pas maintenir les risques en dessous de ces limites.
Le sommet de Séoul, co-organisé par la Corée du Sud et la Grande-Bretagne, a été organisé pour s'appuyer sur le consensus atteint lors du premier sommet sur la sécurité de l'IA l'année dernière.
« Alors que le rythme du développement de l'IA s'accélère, nous devons suivre ce rythme… si nous voulons maîtriser les risques », a déclaré la secrétaire britannique à la Technologie, Michelle Donelan.
« Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente aux risques posés par l'IA. »
Le sommet a également vu un engagement distinct – le soi-disant Séoul AI Business Pledge – de la part d'un groupe d'entreprises technologiques, dont le sud-coréen Samsung Electronics et le titan américain IBM, à développer l'IA de manière responsable.
L'IA est « un outil entre les mains des humains. Et c'est maintenant le moment pour nous de décider comment nous allons l'utiliser en tant que société, en tant qu'entreprises, en tant que gouvernements », a déclaré à l'AFP Christina Montgomery, directrice de la confidentialité et de la confiance d'IBM. en marge du sommet.
« Tout peut être utilisé à mauvais escient, y compris la technologie de l'IA », a-t-elle ajouté. « Nous devons mettre en place des garde-corps, nous devons mettre en place des protections, nous devons réfléchir à la manière dont nous allons les utiliser à l'avenir. »
À la recherche d’un consensus
Les partisans de l’IA l’ont présentée comme une percée qui améliorera la vie et les entreprises dans le monde entier, en particulier après le succès stratosphérique de ChatGPT.
Cependant, les critiques, les militants des droits de l'homme et les gouvernements ont averti que la technologie peut être utilisée à mauvais escient de diverses manières, y compris la manipulation des élections via la désinformation générée par l'IA, comme les images et vidéos « deepfakes » de politiciens.
Beaucoup ont réclamé des normes internationales pour régir le développement et l’utilisation de l’IA. Mais les experts présents au sommet de Séoul ont averti que l’IA constitue un énorme défi pour les régulateurs car elle se développe rapidement.
« Je m'attends à ce que l'IA soit l'un des plus grands défis que les gouvernements du monde entier devront relever au cours des deux prochaines décennies », a déclaré Markus Anderljung, responsable des politiques au Centre à but non lucratif basé au Royaume-Uni. IA.
Jack Clark, co-fondateur de la startup d'IA Anthropic, a déclaré que le consensus sur la sécurité de l'IA ne peut pas être laissé aux seules entreprises technologiques et que les experts gouvernementaux et universitaires sont nécessaires dans la conversation.
« Lors de ce sommet, j'ai en fait demandé à chaque personne que j'ai rencontrée : qu'est-ce que la sécurité pour vous ? Et j'ai eu une réponse différente de chaque personne », a déclaré Clark aux journalistes. « Et je pense que cela illustre le problème. »
« Vous n'arriverez pas à un consensus uniquement par les entreprises, et si vous y parveniez, je doute que ce soit le bon. »
Il était également à l'ordre du jour à Séoul de veiller à ce que l'IA soit inclusive et ouverte à tous.
Ce n'est pas seulement « l'IA galopante » des cauchemars de science-fiction qui constitue une préoccupation majeure, mais aussi les inégalités, a déclaré Rumman Chowdhury, un expert en éthique de l'IA qui dirige l'auditeur à but non lucratif de l'IA Humane Intelligence.
« Toute IA est simplement construite, développée et les bénéfices sont récoltés par très, très peu de personnes et d'organisations », a-t-elle déclaré à l'AFP.
Les habitants des pays en développement comme l'Inde « sont souvent ceux qui font le nettoyage. Ce sont les annotateurs de données, les modérateurs de contenu. Ils nettoient le sol pour que tout le monde puisse marcher sur un territoire vierge ».