Google a abandonné sa promesse de ne pas utiliser l’IA pour les armes. Cela fait partie d’une tendance troublante
La semaine dernière, Google a discrètement abandonné un engagement de longue date à ne pas utiliser la technologie de l’intelligence artificielle (IA) dans les armes ou la surveillance. Dans une mise à jour de ses principes d’IA, qui ont été publiés pour la première fois en 2018, le géant de la technologie a supprimé les déclarations promettant de ne pas poursuivre:
- les technologies qui causent ou sont susceptibles de causer un préjudice global
- armes ou autres technologies dont le principal objectif ou la mise en œuvre est de provoquer ou de faciliter directement les blessures aux personnes
- technologies qui recueillent ou utilisent des informations pour la surveillance, violant les normes acceptées internationales
- Technologies dont l’objectif contrevient aux principes largement acceptés du droit international et des droits de l’homme.
La mise à jour est intervenue après que le président américain Donald Trump a révoqué l’ancien décret de l’ancien président Joe Biden visant à promouvoir le développement et l’utilisation de l’IA en toute sécurité, sûre et digne de confiance.
La décision de Google fait suite à une tendance récente de Big Tech entrant dans le domaine de la sécurité nationale et pour accueillir davantage d’applications militaires de l’IA. Alors pourquoi cela se passe-t-il maintenant? Et quel sera l’impact de l’utilisation plus militaire de l’IA?
La tendance croissante de l’IA militarisée
En septembre, des hauts responsables du gouvernement de Biden ont rencontré des patrons de dirigeants de sociétés d’IA, comme OpenAI, pour discuter du développement de l’IA. Le gouvernement a ensuite annoncé un groupe de travail pour coordonner le développement de centres de données, tout en pesant des objectifs économiques, de sécurité nationale et environnementaux.
Le mois suivant, le gouvernement de Biden a publié une note de service qui traitait en partie de «l’exploitation de l’IA pour atteindre les objectifs de sécurité nationale».
Les grandes entreprises technologiques ont rapidement respecté le message.
En novembre 2024, le géant de la technologie Meta a annoncé qu’il mettrait ses modèles « LLAMA » à la disposition des agences gouvernementales et des sociétés privées impliquées dans la défense et la sécurité nationale.
C’était malgré la propre politique de Meta qui interdit l’utilisation de lama pour « [m]ilitaire, guerre, industries nucléaires ou applications. «
À peu près à la même époque, la société d’IA Anthropic a également annoncé qu’elle s’associait à la société d’analyse de données Palantir et Amazon Web Services pour fournir aux agences de renseignement et de défense américaines à ses modèles d’IA.
Le mois suivant, OpenAI a annoncé qu’il s’était associé à la startup de défense Anduril Industries pour développer l’IA pour le ministère américain de la Défense.
Les entreprises affirment qu’elles combineront les modèles GPT-4O et O1 d’OpenAI avec les systèmes et les logiciels d’Anduril pour améliorer les défenses militaires américaines contre les attaques de drones.
Défendre la sécurité nationale
Les trois sociétés ont défendu les modifications de leurs politiques sur la base des intérêts américains de sécurité nationale.
Prenez Google. Dans un article de blog publié plus tôt ce mois-ci, la société a cité le concours mondial d’IA, des paysages géopolitiques complexes et des intérêts de sécurité nationale comme des raisons de modifier ses principes d’IA.
En octobre 2022, les États-Unis ont publié des contrôles d’exportation restreignant l’accès de la Chine à des types particuliers de puces informatiques haut de gamme utilisées pour la recherche sur l’IA. En réponse, la Chine a publié ses propres mesures de contrôle des exportations sur les métaux de haute technologie, qui sont cruciaux pour l’industrie des puces d’IA.
Les tensions de cette guerre commerciale ont augmenté ces dernières semaines grâce à la sortie de modèles d’IA très efficaces par la société de technologie chinoise Deepseek. Deepseek a acheté 10 000 puces NVIDIA A100 avant les mesures de contrôle des exportations américaines et prétendument les utilisées pour développer leurs modèles d’IA.
Il n’a pas été précisé comment la militarisation de l’IA commerciale protégerait les intérêts nationaux américains. Mais il y a des indications claires que les tensions avec le plus grand rival géopolitique des États-Unis, la Chine, influencent les décisions prises.
Un grand péage sur la vie humaine
Ce qui est déjà clair, c’est que l’utilisation de l’IA dans des contextes militaires a un bilan démontré sur la vie humaine.
Par exemple, dans la guerre à Gaza, l’armée israélienne s’appuie fortement sur des outils d’IA avancés. Ces outils nécessitent d’énormes volumes de données et de plus grands services informatiques et de stockage, qui sont fournis par Microsoft et Google. Ces outils d’IA sont utilisés pour identifier les cibles potentielles mais sont souvent inexactes.
Les soldats israéliens ont déclaré que ces inexactitudes ont accéléré le nombre de morts dans la guerre, qui dépasse désormais 61 000, selon les autorités de Gaza.
Google supprimant la clause « préjudice » de leurs principes d’IA contrevient au droit international sur les droits de l’homme. Cela identifie la «sécurité de la personne» comme mesure clé.
Il est préoccupant de réfléchir à la raison pour laquelle une entreprise de technologie commerciale devrait supprimer une clause concernant les dommages.
Éviter les risques de la guerre compatible AI
Dans ses principes mis à jour, Google dit que ses produits s’aligneront toujours sur les «principes largement acceptés du droit international et des droits de l’homme».
Malgré cela, Human Rights Watch a critiqué la suppression des déclarations les plus explicites concernant le développement d’armes dans les principes originaux.
L’organisation souligne également que Google n’a pas expliqué exactement comment ses produits s’aligneront sur les droits de l’homme.
C’est quelque chose que le décret exécutif révoqué de Joe Biden sur l’IA était également concerné.
L’initiative de Biden n’était pas parfaite, mais c’était une étape vers la création de garde-corps pour le développement responsable et l’utilisation des technologies de l’IA.
Ces garde-corps sont plus que jamais nécessaires à mesure que la grande technologie devient plus enchevrée avec les organisations militaires – et le risque qui accompagne la guerre compatible AI et la violation des droits de l’homme augmente.
