Personne ne veut parler de la sécurité de l’IA. Au lieu de cela, ils s’accrochent à cinq mythes réconfortants
Cette semaine, la France a organisé un sommet d’action de l’IA à Paris pour discuter des questions brûlantes autour de l’intelligence artificielle (IA), telles que la façon dont les gens peuvent faire confiance aux technologies de l’IA et comment le monde peut les gouverner.
Soixante pays, dont la France, la Chine, l’Inde, le Japon, l’Australie et le Canada, ont signé une déclaration d’IA « inclusive et durable ». Le Royaume-Uni et les États-Unis ont notamment refusé de signer, le Royaume-Uni disant que la déclaration n’a pas réussi à aborder de manière adéquate la gouvernance mondiale et la sécurité nationale, et le vice-président américain JD Vance critiquant la « réglementation excessive » de l’IA.
Les critiques disent que le sommet a mis à l’écart les problèmes de sécurité en faveur de discuter des opportunités commerciales.
La semaine dernière, j’ai assisté à la première conférence sur la sécurité des AI tenue par l’International Association for Safe & Ethical IA, également à Paris, où j’ai entendu des pourparlers par les luminaires de l’AI Geoffrey Hinton, Yoshua Bengio, Anca Dragan, Margaret Mitchell, Max Tegmark, Kate Crawford, Joseph Stiglitz et Stuart Russell.
En écoutant, j’ai réalisé que le mépris des préoccupations de la sécurité de l’IA parmi les gouvernements et le public repose sur une poignée de mythes réconfortants sur l’IA qui ne sont plus vrais – s’ils l’ont jamais été.
1: L’intelligence générale artificielle n’est pas seulement la science-fiction
Les préoccupations les plus graves concernant l’IA – qu’elle pourrait constituer une menace pour l’existence humaine – implique généralement l’intelligence dite de l’intelligence générale artificielle (AGI). En théorie, AGI sera beaucoup plus avancé que les systèmes actuels.
Les systèmes AGI pourront apprendre, évoluer et modifier leurs propres capacités. Ils pourront entreprendre des tâches au-delà de celles pour lesquelles ils ont été conçus à l’origine, et finalement dépasser l’intelligence humaine.
AGI n’existe pas encore et il n’est pas certain qu’il sera jamais développé. Les critiques rejettent souvent AGI comme quelque chose qui n’appartient qu’aux films de science-fiction. En conséquence, les risques les plus critiques ne sont pas pris au sérieux par certains et sont considérés comme fantaisistes par d’autres.
Cependant, de nombreux experts pensent que nous sommes sur le point d’atteindre AGI. Les développeurs ont suggéré que, pour la première fois, ils savent quelles tâches techniques sont nécessaires pour atteindre l’objectif.
Agi ne restera pas uniquement en science-fiction pour toujours. Ce sera finalement avec nous, et probablement plus tôt que nous ne le pensons.
2: Nous devons déjà nous soucier des technologies actuelles d’IA
Étant donné que les risques les plus graves sont souvent discutés par rapport à l’AGI, il y a souvent une croyance mal placée, nous n’avons pas trop de souci des risques associés à l’IA « étroite » contemporaine.
Cependant, les technologies actuelles d’IA causent déjà des dommages importants aux humains et à la société. Cela comprend des mécanismes évidents tels que les accidents mortels de la route et de l’aviation, de la guerre, des cyber-incidents et même d’encourager le suicide.
Les systèmes d’IA ont également causé des dommages de manière plus oblique, tels que les interférences électorales, le remplacement du travail humain, la prise de décision biaisée, les fesses profondes, la désinformation et la désinformation.
Selon le suivi des incidents de l’IA du MIT, les dommages causés par les technologies actuelles de l’IA sont en augmentation. Il y a un besoin critique de gérer les technologies d’IA actuelles ainsi que celles qui pourraient apparaître à l’avenir.
3: Les technologies contemporaines d’IA sont «plus intelligentes» que nous ne le pensons
Un troisième mythe est que les technologies actuelles d’IA ne sont pas réellement aussi intelligentes et sont donc faciles à contrôler. Ce mythe est le plus souvent vu lors de la discussion des modèles de grande langue (LLMS) derrière des chatbots tels que Chatgpt, Claude et Gemini.
Il y a beaucoup de débat sur la façon de définir l’intelligence et si les technologies de l’IA sont vraiment intelligentes, mais à des fins pratiques, ce sont des problèmes secondaires distrayants. Il suffit que les systèmes d’IA se comportent de manière inattendue et créent des risques imprévus.
Par exemple, les technologies d’IA existantes se sont révélées adopter des comportements que la plupart des gens n’attendraient pas d’entités non intelligentes. Il s’agit notamment de la tromperie, de la collusion, du piratage et même du jeu pour assurer leur propre conservation.
La question de savoir si ces comportements sont des preuves de l’intelligence est un point discutable. Les comportements peuvent nuire aux humains de toute façon.
Ce qui compte, c’est que nous avons les contrôles en place pour éviter un comportement nocif. L’idée que « l’IA est stupide » n’aide personne.
4: La régulation à elle seule ne suffit pas
De nombreuses personnes préoccupées par la sécurité de l’IA ont plaidé pour les réglementations de sécurité de l’IA.
L’année dernière, la loi sur l’IA de l’Union européenne, représentant le premier droit mondial de l’IA, a été largement saluée. Il s’est construit sur des principes de sécurité d’IA déjà établis pour fournir des conseils sur la sécurité et les risques de l’IA.
Bien que la réglementation soit cruciale, ce n’est pas tout ce qui est nécessaire pour s’assurer que l’IA est sûre et bénéfique. La réglementation n’est qu’une partie d’un réseau complexe de contrôles nécessaires pour assurer la sécurité de l’IA.
Ces contrôles comprendront également les codes de pratique, les normes, la recherche, l’éducation et la formation, la mesure et l’évaluation du rendement, les procédures, les contrôles de sécurité et de confidentialité, les systèmes de reporting et d’apprentissage des incidents, etc. La loi sur l’UE AI est un pas dans la bonne direction, mais une énorme quantité de travail est toujours nécessaire pour développer les mécanismes appropriés nécessaires pour s’assurer qu’il fonctionne.
5: Il ne s’agit pas seulement de l’IA
Le cinquième et peut-être le plus enraciné se concentre sur l’idée que les technologies de l’IA elles-mêmes créent des risques.
Les technologies d’IA forment une composante d’un système plus large « sociotechnique ». Il existe de nombreux autres composants essentiels: les humains, les autres technologies, les données, les artefacts, les organisations, les procédures, etc.
La sécurité dépend du comportement de tous ces composants et de leurs interactions. Cette philosophie de la «pensée des systèmes» exige une approche différente de la sécurité de l’IA.
Au lieu de contrôler le comportement des composants individuels du système, nous devons gérer les interactions et les propriétés émergentes.
Avec les agents de l’IA en augmentation – les systèmes AI avec plus d’autonomie et la capacité d’effectuer plus de tâches – les interactions entre différentes technologies d’IA deviendront de plus en plus importantes.
À l’heure actuelle, il y a eu peu de travail à examiner ces interactions et les risques qui pourraient survenir dans le système sociotechnique plus large dans lequel les technologies de l’IA sont déployées. Des contrôles de sécurité de l’IA sont nécessaires pour toutes les interactions au sein du système, pas seulement pour les technologies de l’IA elles-mêmes.
La sécurité de l’IA est sans doute l’un des défis les plus importants auxquels nos sociétés sont confrontées. Pour y arriver, nous aurons besoin d’une compréhension partagée de ce que sont réellement les risques.
