Il existe déjà un moyen de partager librement la technologie et de mettre fin aux abus.

Il existe déjà un moyen de partager librement la technologie et de mettre fin aux abus.

De nombreuses façons sont proposées pour tenter de limiter l’intelligence artificielle (IA), en raison de son potentiel de préjudice pour la société, ainsi que de ses avantages.

Par exemple, la loi de l’UE sur l’IA impose des restrictions plus strictes aux systèmes selon qu’ils entrent dans la catégorie de l’IA à usage général et générative ou qu’ils sont considérés comme présentant un risque limité, un risque élevé ou un risque inacceptable.

Il s’agit d’une approche nouvelle et audacieuse pour atténuer les effets néfastes. Et si nous pouvions adapter certains outils déjà existants ? Les licences logicielles sont un modèle bien connu qui pourrait être adapté afin de répondre aux défis posés par les systèmes d’IA avancés.

Les licences ouvertes d’IA responsable (OpenRails) pourraient faire partie de cette réponse. L’IA sous licence OpenRail est similaire aux logiciels open source. Un développeur peut publier son système publiquement sous licence. Cela signifie que chacun est libre d’utiliser, d’adapter et de repartager ce qui était initialement sous licence.

La différence avec OpenRail réside dans l’ajout de conditions d’utilisation responsable de l’IA. Il s’agit notamment de ne pas enfreindre la loi, d’usurper l’identité de personnes sans consentement ou de faire preuve de discrimination à l’égard de personnes.

Outre les conditions obligatoires, OpenRails peut être adapté pour inclure d’autres conditions directement liées à la technologie spécifique. Par exemple, si une IA a été créée pour catégoriser les pommes, le développeur peut préciser qu’elle ne doit jamais être utilisée pour catégoriser les oranges, car cela serait irresponsable.

La raison pour laquelle ce modèle peut être utile est que de nombreuses technologies d’IA sont si générales qu’elles pourraient être utilisées à de nombreuses fins. Il est vraiment difficile de prédire les manières néfastes dont ils pourraient être exploités.

Ce modèle permet donc aux développeurs de contribuer à faire progresser l’innovation ouverte tout en réduisant le risque que leurs idées soient utilisées de manière irresponsable.

Ouvert mais responsable

En revanche, les licences propriétaires sont plus restrictives quant à la manière dont les logiciels peuvent être utilisés et adaptés. Ils sont conçus pour protéger les intérêts des créateurs et des investisseurs et ont aidé des géants de la technologie comme Microsoft à bâtir de vastes empires en faisant payer l’accès à leurs systèmes.

En raison de sa vaste portée, l’IA exige sans doute une approche différente, plus nuancée, susceptible de promouvoir l’ouverture qui favorise le progrès. Actuellement, de nombreuses grandes entreprises exploitent des systèmes d’IA propriétaires et fermés. Mais cela pourrait changer, car il existe plusieurs exemples d’entreprises utilisant une approche open source.

Le système d’IA générative de Meta, Llama-v2, et le générateur d’images Stable Diffusion sont open source. La startup française d’IA Mistral, créée en 2023 et désormais évaluée à 2 milliards de dollars américains (1,6 milliard de livres sterling), devrait bientôt lancer ouvertement son dernier modèle, dont les performances seraient comparables à celles de GPT-4 (le modèle derrière Chat GPT).

Toutefois, cette ouverture doit être tempérée par un sens des responsabilités envers la société, en raison des risques potentiels associés à l’IA. Il s’agit notamment du potentiel des algorithmes à discriminer les gens, à remplacer des emplois et même à constituer des menaces existentielles pour l’humanité.

Nous devrions également considérer les utilisations plus banales et quotidiennes de l’IA. La technologie fera de plus en plus partie de notre infrastructure sociétale, un élément central de la façon dont nous accédons à l’information, construisons nos opinions et nous exprimons culturellement.

Une technologie d’une telle importance universelle comporte son propre type de risque, distinct de l’apocalypse robotique, mais qui mérite néanmoins d’être pris en considération.

Une façon d’y parvenir est de comparer ce que l’IA pourrait faire à l’avenir avec ce que fait aujourd’hui la liberté d’expression. Le libre partage des idées est non seulement crucial pour le respect des valeurs démocratiques, mais il constitue également le moteur de la culture. Elle facilite l’innovation, encourage la diversité et nous permet de discerner le vrai du faux.

Les modèles d’IA développés aujourd’hui deviendront probablement le principal moyen d’accès à l’information. Ils façonneront ce que nous disons, ce que nous voyons, ce que nous entendons et, par extension, notre façon de penser.

En d’autres termes, ils façonneront notre culture de la même manière que la liberté d’expression. Pour cette raison, il existe de bons arguments selon lesquels les fruits de l’innovation en matière d’IA devraient être gratuits, partagés et ouverts. Et il se trouve que la majeure partie l’est déjà.

Des limites sont nécessaires

Sur la plateforme HuggingFace, le plus grand centre de développement d’IA au monde, plus de 81 000 modèles sont actuellement publiés à l’aide de licences « open source permissives ». Tout comme le droit de s’exprimer librement profite largement à la société, ce partage ouvert de l’IA est un moteur de progrès.

Cependant, la liberté d’expression a des limites éthiques et juridiques nécessaires. Faire de fausses déclarations préjudiciables à autrui ou exprimer de la haine fondée sur l’origine ethnique, la religion ou le handicap sont deux limitations largement acceptées. Fournir aux innovateurs un moyen de trouver cet équilibre dans le domaine de l’innovation en IA, c’est ce que fait OpenRails.

Par exemple, la technologie du deep learning est appliquée dans de nombreux domaines intéressants, mais elle sous-tend également les vidéos deepfake. Les développeurs ne voulaient probablement pas que leur travail soit utilisé pour diffuser de la désinformation ou créer de la pornographie non consensuelle.

Un OpenRail leur aurait donné la possibilité de partager leur travail avec des restrictions qui interdiraient, par exemple, tout ce qui violerait la loi, causerait un préjudice ou entraînerait une discrimination.

Exécutoire

Les licences OpenRAIL peuvent-elles nous aider à éviter les inévitables dilemmes éthiques que posera l’IA ? L’octroi de licences ne peut aller que jusqu’à un certain point, avec une limite étant que la validité des licences dépend de la capacité de les faire respecter.

Actuellement, l’application de la loi serait probablement similaire à l’application de la loi en matière de copie de musique et de piratage de logiciels et impliquerait l’envoi de lettres de cessation et d’abstention avec la perspective d’éventuelles poursuites judiciaires. Même si de telles mesures ne stoppent pas le piratage, elles le découragent.

Malgré leurs limites, elles présentent de nombreux avantages pratiques : les licences sont bien comprises par la communauté technologique, sont facilement évolutives et peuvent être adoptées sans effort. Cela a été reconnu par les développeurs et, à ce jour, plus de 35 000 modèles hébergés sur HuggingFace ont adopté OpenRails.

Ironiquement, étant donné le nom de l’entreprise, OpenAI, la société derrière ChatGPT, n’accorde pas ouvertement de licences pour ses modèles d’IA les plus puissants. Au lieu de cela, avec ses modèles de langage phares, la société adopte une approche fermée qui donne accès à l’IA à toute personne prête à payer, tout en empêchant les autres de s’appuyer sur la technologie sous-jacente ou de l’adapter.

Comme pour l’analogie avec la liberté d’expression, la liberté de partager ouvertement l’IA est un droit que nous devrions chérir, mais peut-être pas absolument. Bien qu’elles ne soient pas une panacée, les approches basées sur les licences telles qu’OpenRail semblent être une pièce prometteuse du puzzle.