Meta permet désormais aux agences militaires d'accéder à son logiciel d'IA. Cela pose un dilemme moral à tous ceux qui l’utilisent
Meta mettra ses modèles d'intelligence artificielle (IA) générative à la disposition du gouvernement américain, a annoncé le géant de la technologie, dans une démarche controversée qui soulève un dilemme moral pour tous ceux qui utilisent le logiciel.
Meta a révélé la semaine dernière qu'elle mettrait les modèles, connus sous le nom de Llama, à la disposition des agences gouvernementales, « y compris celles qui travaillent sur des applications de défense et de sécurité nationale, ainsi que les partenaires du secteur privé soutenant leur travail ».
La décision semble contrevenir à la propre politique de Meta qui énumère une série d'utilisations interdites du lama, notamment « [m]l'armée, la guerre, les industries ou applications nucléaires », ainsi que l'espionnage, le terrorisme, la traite des êtres humains et l'exploitation ou les atteintes aux enfants.
L'exception de Meta s'appliquerait également à des agences de sécurité nationale similaires au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande. Cela s'est produit trois jours seulement après que Reuters a révélé que la Chine avait retravaillé Llama à ses propres fins militaires.
La situation met en évidence la fragilité croissante des logiciels d’IA open source. Cela signifie également que les utilisateurs de Facebook, Instagram, WhatsApp et Messenger – dont certaines versions utilisent Llama – pourraient par inadvertance contribuer à des programmes militaires dans le monde entier.
Qu’est-ce que le lama ?
Llama est un regroupement de grands modèles linguistiques (similaires à ChatGPT) et de grands modèles multimodaux qui traitent des données autres que le texte, telles que l'audio et les images.
Meta, la société mère de Facebook, a publié Llama en réponse au ChatGPT d'OpenAI. La principale différence entre les deux est que tous les modèles Llama sont commercialisés comme open source et gratuits. Cela signifie que n'importe qui peut télécharger le code source d'un modèle Llama, puis l'exécuter et le modifier lui-même (s'il dispose du matériel approprié). En revanche, ChatGPT n'est accessible que via OpenAI.
L'Open Source Initiative, une autorité qui définit les logiciels open source, a récemment publié une norme définissant ce que devrait impliquer l'IA open source. La norme décrit « quatre libertés » qu'un modèle d'IA doit accorder pour être classé comme open source :
- utiliser le système à quelque fin que ce soit et sans avoir à demander la permission
- étudier le fonctionnement du système et inspecter ses composants
- modifier le système à quelque fin que ce soit, y compris pour changer sa sortie
- partager le système pour que d'autres puissent l'utiliser avec ou sans modifications, à quelque fin que ce soit.
Le lama de Meta ne répond pas à ces exigences. Cela est dû aux limitations de l'utilisation commerciale, aux activités interdites qui peuvent être considérées comme nuisibles ou illégales et au manque de transparence sur les données de formation de Llama.
Malgré cela, Meta décrit toujours Llama comme open source.
L'intersection de l'industrie technologique et de l'armée
Meta n’est pas la seule entreprise de technologie commerciale à se lancer dans les applications militaires de l’IA. La semaine dernière, Anthropic a également annoncé son partenariat avec Palantir, une société d'analyse de données, et Amazon Web Services pour permettre aux agences américaines de renseignement et de défense d'accéder à ses modèles d'IA.
Meta a défendu sa décision d'autoriser les agences de sécurité nationale et les sous-traitants de la défense américains à utiliser Llama. L'entreprise affirme que ces utilisations sont « responsables et éthiques » et « soutiennent la prospérité et la sécurité des États-Unis ».
Meta n'a pas été transparent sur les données qu'il utilise pour former Llama. Mais les entreprises qui développent des modèles d’IA génératifs utilisent souvent les données saisies par les utilisateurs pour perfectionner leurs modèles, et les gens partagent de nombreuses informations personnelles lorsqu’ils utilisent ces outils.
ChatGPT et Dall-E proposent des options pour refuser la collecte de vos données. Cependant, on ne sait pas si Llama propose la même chose.
La possibilité de se désinscrire n’est pas explicitement précisée lors de l’inscription pour utiliser ces services. Cela impose aux utilisateurs la responsabilité de s'informer eux-mêmes, et la plupart des utilisateurs ne savent peut-être pas où ni comment Llama est utilisé.
Par exemple, la dernière version de Llama alimente les outils d’IA de Facebook, Instagram, WhatsApp et Messenger. Lorsqu'ils utilisent les fonctions d'IA sur ces plates-formes, telles que la création de bobines ou la suggestion de sous-titres, les utilisateurs utilisent Llama.
La fragilité de l'open source
Les avantages de l'open source incluent la participation et la collaboration ouvertes sur les logiciels. Cependant, cela peut également conduire à des systèmes fragiles et facilement manipulables. Par exemple, à la suite de l’invasion de l’Ukraine par la Russie en 2022, des membres du public ont apporté des modifications aux logiciels open source pour exprimer leur soutien à l’Ukraine.
Ces changements comprenaient des messages anti-guerre et la suppression des fichiers système sur les ordinateurs russes et biélorusses. Ce mouvement est devenu connu sous le nom de « protestware ».
L’intersection de l’IA open source et des applications militaires exacerbera probablement cette fragilité, car la robustesse des logiciels open source dépend de la communauté publique. Dans le cas de grands modèles linguistiques tels que Llama, ils nécessitent une utilisation et un engagement du public, car les modèles sont conçus pour s'améliorer au fil du temps grâce à une boucle de rétroaction entre les utilisateurs et le système d'IA.
L’utilisation mutuelle d’outils d’IA open source réunit deux parties : le public et l’armée, qui ont historiquement des besoins et des objectifs distincts. Ce changement exposera des défis uniques pour les deux parties.
Pour l’armée, le libre accès signifie que les détails les plus fins du fonctionnement d’un outil d’IA peuvent être facilement obtenus, ce qui peut entraîner des problèmes de sécurité et de vulnérabilité. Pour le grand public, le manque de transparence sur la manière dont les données des utilisateurs sont utilisées par l’armée peut conduire à un grave dilemme moral et éthique.