L'ironie la plus amère de l'IA est que ceux qui ont aidé à le créer veulent maintenant mettre un frein

L'ironie la plus amère de l'IA est que ceux qui ont aidé à le créer veulent maintenant mettre un frein

Lundi, plus de 200 personnalités et plus de 70 organisations se sont jointes à une nouvelle initiative appelée Global Call for IA Red Lines (World Call pour établir des lignes rouges en IA). L'objectif: essayez d'établir des limites claires que l'IA ne devrait jamais traverser.

Pourquoi c'est important. Les progrès en génératifs sont effrénés, mais encore une fois la priorité, c'est que le développement et la commercialisation de ces modèles sans trop de réserves lors de cela. Selon les signataires de l'initiative,

« Certains systèmes avancés de l'IA ont déjà montré des comportements trompeurs et nuisibles, et pourtant ces systèmes donnent plus d'autonomie pour agir et prendre des décisions dans le monde. S'il n'est pas contrôlé, de nombreux experts, y compris ceux qui sont à l'avant-garde du développement, avertissent qu'il sera de plus en plus difficile d'exercer un contrôle humain important dans les années à venir. »

Ce qui est demandé. L'initiative, initiée au cours de la 80e Assemblée générale des Nations Unies, demande que les gouvernements agissent « avec décision » et parviennent à « un accord international sur des lignes rouges claires et vérifiables pour éviter les risques universellement inacceptables ».

Quelles sont ces lignes rouges. Ce qui est proposé est spécifiquement interdire certaines utilisations et comportements de l'IA qui peuvent finir par être dangereux. Parmi eux, ils seraient par exemple interdits:

Ceux qui sont. Dans ce groupe de plus de 200 personnalités, il y a dix prix Nobel, experts en IA, scientifiques, diplomates et même chefs d'État. Parmi eux se trouvent des noms bien connus comme ceux des scientifiques Geoffrey Hinton et Yoshua Bengio qui mettent en garde depuis un certain temps. La liste est remarquable et ce sont également des experts tels que l'Openai Co -leaflet, Wojciech Zarama, ou l'un des principaux scientifiques de Deepmind, Ian Goodfellow.

Et ceux qui ne le font pas. Bien que dans cette liste de personnalités, il existe des noms très pertinents, il est également important de vérifier que cette initiative n'a été signée par aucun PDG de l'une des grandes sociétés technologiques impliquées dans le domaine de l'IA. Bien que parfois il y ait eu des discours qui ont souligné qu'ils étaient également inquiets de ce problème et que l'IA devait être réglementé, en l'occurrence, ils n'ont pas participé à l'initiative.

Mieux vaut empêcher la guérison. Charbel-Raphaël Segerie, responsable d'une agence française appelée Sendance Center dans l'IA (CESIA), « l'objectif n'est pas de réagir après qu'un incident important se soit produit, mais d'éviter les risques largement et potentiellement irréversibles avant qu'ils ne se produisent. »

L'acte européen va dans cette ligne. L'Union européenne a déjà créé son règlement et l'a lancée en août 2024, et l'idée était d'établir une série de restrictions basées sur les niveaux de risque. À l'heure actuelle, l'impact de ce règlement a été négatif, d'autant plus qu'il a limité l'utilisation et le développement de modèles d'IA dans l'UE. À tel point que l'UE a décidé de soutenir et d'adoucir ses réglementations.

Et nous avons déjà un précédent. Quelques mois seulement après le lancement du Chatgpt, plusieurs experts ont fait une demande similaire. Parmi eux, Elon Musk – qui n'a pas signé cette initiative – ou Steve Wozniak, qui a demandé à faire une pause pendant six mois la formation des modèles d'IA. Cela ne vient nulle part, et sans interdiction explicite que le développement des modèles d'IA a continué à être imparable.

Dans Simseo | « Les passagers estimés: respectent les règles pour éviter les points négatifs », la Chine met en œuvre leur crédit social