La Chine utilise l'IA de Meta à des fins militaires. La réaction de Meta et des États-Unis a été exactement celle attendue
Il y a quelques jours, Reuters révélait que la Chine avait utilisé une ancienne version du modèle d'IA de Meta, Llama, pour développer un chatbot avec des applications militaires. La découverte a suscité une certaine controverse, mais elle a également changé les règles du jeu et la philosophie de Meta dans ce secteur.
La Chine utilise Meta AI à des fins militaires. Les institutions de recherche chinoises liées à l'Armée populaire de libération chinoise ont utilisé le modèle d'IA accessible au public de Meta, Llama, pour créer un chatbot avec des applications militaires appelé ChatBIT. Les chercheurs ont profité d'une version précédente du modèle actuel dans sa version 13B (13 milliards de paramètres), et ont incorporé leurs propres paramètres pour créer cet outil militaire.
ChatBIT en tant qu'assistant militaire. Ce modèle chinois a été peaufiné et « optimisé pour le dialogue et pour répondre aux questions dans le domaine militaire », indique l'étude citée par Reuters et publiée par les chercheurs. Selon leurs tests, ChatBIT a pu améliorer les performances d'autres modèles qui possédaient plus ou moins 90 % des capacités du GPT-4.
Utilisation non autorisée. La découverte de ChatBIT a rapidement suscité l'inquiétude des responsables de Meta, qui, dans une déclaration fournie à Reuters, ont déclaré que l'utilisation de Llama à des fins militaires par la Chine « n'est pas autorisée ».
Meta réagit. Les politiques d'utilisation de Llama interdisent l'utilisation de son LLM pour des « applications militaires ou nucléaires ». Après avoir découvert ce que la Chine avait fait, la société a annoncé un changement dans ces termes sur son blog officiel. Dans le cadre des nouvelles politiques, il autorise l’utilisation de son modèle d’IA à des fins militaires, mais évidemment pas en Chine. Cette option n'est offerte qu'aux agences et entreprises aux États-Unis, ainsi qu'à des organisations similaires au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande, selon Bloomberg.
L'IA de Meta est réservée aux États-Unis et à leurs alliés les plus proches. Dans cette annonce officielle, les responsables de Meta ont indiqué que ces utilisations « responsables et éthiques » soutiendraient « la prospérité et la sécurité des États-Unis ». Parmi les entreprises qui pourront utiliser la technologie de Meta avec des applications militaires figurent Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake, indiquent-elles dans The Tuteur.
Le débat sur l’IA à vocation militaire. L’application des modèles d’IA dans le domaine militaire et de la défense a toujours été considérée avec une grande préoccupation. En 2018, Google a dû abandonner son projet Maven, une initiative qui proposait d'utiliser l'intelligence artificielle pour contrôler les drones militaires du gouvernement américain.
Controverse, inquiétude et réglementation. La décision de Meta n'est pas sans controverse, mais ce type d'application semblait inévitable : les armées et les agences de renseignement et de défense du monde entier utilisent des solutions Open Source pour leurs opérations depuis des années, et il semblait inévitable qu'une telle chose se produise avec des modèles comme le de But.
Images | Prachataï
À Simseo | De toutes les puissances mondiales, une seule a refusé de signer un accord clé : l’IA ne contrôle pas le bouton rouge nucléaire.