Le sommet de Séoul sur l'IA s'ouvre avec des entreprises telles que Google, Meta et OpenAI qui s'engagent à développer l'IA en toute sécurité

Le sommet de Séoul sur l'IA s'ouvre avec des entreprises telles que Google, Meta et OpenAI qui s'engagent à développer l'IA en toute sécurité

Les plus grandes sociétés mondiales d'intelligence artificielle se sont engagées, au début d'un mini-sommet sur l'IA, à développer la technologie en toute sécurité, y compris en la débranchant si elles ne parviennent pas à maîtriser les risques les plus extrêmes.

Les dirigeants mondiaux devraient conclure de nouveaux accords sur l'intelligence artificielle alors qu'ils se réunissent virtuellement mardi pour discuter des risques potentiels de l'IA mais aussi des moyens de promouvoir ses avantages et l'innovation.

Le sommet AI de Séoul est une suite discrète au sommet très médiatisé sur la sécurité de l'IA de novembre à Bletchley Park au Royaume-Uni, où les pays participants ont convenu de travailler ensemble pour contenir les risques potentiellement « catastrophiques » posés par les progrès fulgurants de l'IA.

Le secrétaire général de l'ONU, Antonio Guterres, a déclaré lors de la séance d'ouverture que sept mois après la réunion de Bletchley Park, « nous assistons à des avancées technologiques qui changent la vie et à de nouveaux risques potentiellement mortels, de la désinformation à la surveillance de masse en passant par la perspective d'armes autonomes mortelles. »

Le chef de l’ONU a déclaré dans un discours vidéo qu’il fallait des garde-fous universels et un dialogue régulier sur l’IA. « Nous ne pouvons pas sombrer dans un avenir dystopique où le pouvoir de l'IA est contrôlé par quelques personnes – ou pire, par des algorithmes dépassant la compréhension humaine », a-t-il déclaré.

Le sommet de Séoul sur l'IA s'ouvre avec des entreprises telles que Google, Meta et OpenAI qui s'engagent à développer l'IA en toute sécurité

La réunion de deux jours, co-organisée par les gouvernements sud-coréen et britannique, intervient également au moment où de grandes entreprises technologiques comme Meta, OpenAI et Google déploient les dernières versions de leurs modèles d'IA.

Ils font partie des 16 entreprises d'IA qui ont pris des engagements volontaires en faveur de la sécurité de l'IA au début des négociations, selon une annonce du gouvernement britannique. Les entreprises, qui comprennent également Amazon, Microsoft, Mistral AI en France, Zhipu.ai en Chine et G42 aux Émirats arabes unis, se sont engagées à assurer la sécurité de leurs modèles d'IA les plus avancés en promettant une gouvernance responsable et une transparence publique.

L'engagement comprend la publication de cadres de sécurité expliquant comment ils mesureront les risques de ces modèles. Dans les cas extrêmes où les risques sont graves et « intolérables », les sociétés d’IA devront appuyer sur le coupe-circuit et arrêter de développer ou de déployer leurs modèles et systèmes si elles ne peuvent pas atténuer les risques.

Depuis la réunion britannique de l'année dernière, l'industrie de l'IA « s'est de plus en plus concentrée sur les préoccupations les plus urgentes, notamment la désinformation, la sécurité des données, les préjugés et la mise au courant des humains », a déclaré Aiden Gomez, PDG de Cohere, l'un des Entreprises d’IA qui ont signé le pacte. « Il est essentiel que nous continuions à considérer tous les risques possibles, tout en donnant la priorité à nos efforts sur ceux qui sont les plus susceptibles de créer des problèmes s'ils ne sont pas correctement traités. »

Mardi soir, le président sud-coréen Yoon Suk Yeol et le Premier ministre britannique Rishi Sunak rencontreront d'autres dirigeants mondiaux, patrons de l'industrie et chefs d'organisations internationales pour une conférence virtuelle. Le sommet en ligne sera suivi mercredi d'une réunion en personne des ministres du numérique, des experts et d'autres personnes, selon les organisateurs.

Le sommet de Séoul sur l'IA s'ouvre avec des entreprises telles que Google, Meta et OpenAI qui s'engagent à développer l'IA en toute sécurité

Alors que la réunion au Royaume-Uni était centrée sur les questions de sécurité de l'IA, l'ordre du jour de la réunion de cette semaine a été élargi pour inclure « l'innovation et l'inclusivité », a déclaré lundi aux journalistes Wang Yun-jong, directeur adjoint de la sécurité nationale en Corée du Sud.

Wang a déclaré que les participants « discuteront ensuite non seulement des risques posés par l'IA, mais également de ses aspects positifs et de la manière dont elle peut contribuer à l'humanité de manière équilibrée ».

L'accord sur l'IA inclura les résultats des discussions sur la sécurité, l'innovation et l'inclusivité, selon Park Sang-wook, conseiller présidentiel principal pour la science et la technologie du président Yoon.

Les gouvernements du monde entier se sont efforcés de formuler des réglementations sur l’IA, alors même que la technologie progresse rapidement et est sur le point de transformer de nombreux aspects de la vie quotidienne, de l’éducation et du lieu de travail aux droits d’auteur et à la vie privée. Certains craignent que les progrès de l’IA ne suppriment des emplois, trompent les gens et propagent de la désinformation.

La réunion de cette semaine n’est que l’un des nombreux efforts visant à élaborer des garde-fous en matière d’IA. L'Assemblée générale des Nations Unies a approuvé sa première résolution sur l'utilisation sûre des systèmes d'IA, tandis que les États-Unis et la Chine ont récemment tenu leurs premières discussions de haut niveau sur l'IA et que la première loi mondiale sur l'IA de l'Union européenne devrait entrer en vigueur plus tard cette année.