Les armes et applications militaires ont cessé d’être le grand tabou de l’IA. Il y a trop d’argent en jeu
« Ce sont mes principes. Si vous ne l’aimez pas, j’en ai d’autres. » La célèbre phrase de Groucho Marx semble maintenant être le mantra des sociétés de l’IA, qui jusqu’à il n’y a pas longtemps, contrairement à l’application de l’IA à des fins militaires et militaires. Cela a changé pour une raison simple: l’argent.
Google. Comme nous l’avons expliqué il y a quelques heures à peine, Google n’est plus montré contrairement à l’utilisation de l’IA pour la guerre. Il est démontré par le fait qu’il a éliminé ses « principes pour l’IA » le paragraphe qui a indiqué précisément qu’ils n’appliqueraient pas une telle technologie « aux technologies qui causent ou peuvent causer des dommages ».
Ils étaient d’autres fois. En avril 2018, la controverse a éclaté lorsqu’il a été découvert que Google collaborait avec le Pentagone aux États-Unis pour le développement d’un programme de défense appelé Project Maven. Plus de 3 000 employés de Google ont ouvertement protesté par une lettre ouverte, qui a fini par provoquer une réaction frappante de l’entreprise: ils ont rejeté et annulé le projet.
Don est le mal. Cet événement a semblé nous ramener au mantra original de Google avec son célèbre « Don’s Be Evil » (« Don’t Be Evil »). Ce message a fini par être très critiqué pour la transition claire de Google de Startup frappant et promettant à une entreprise traditionnelle dans laquelle la feuille de compte est la priorité absolue.
Les grands de l’IA veulent profiter du récif. Google n’est pas le premier et ce sera le dernier à considérer le développement de systèmes d’IA à des fins de guerre. Avant de voir plusieurs cas. Anthropic s’est associé à Palantir – en tant que Microsoft – et AWS pour offrir son modèle Claude aux agences américaines de renseignement et de défense, et Target a annoncé de nouveaux termes avec le même objectif. OpenAI a également modifié ses conditions d’utilisation et déjà négocié des contrats avec le DoD,


Beaucoup d’argent en jeu (mais cela pourrait être bien plus). Les dépenses militaires restent extraordinaires et les agences gouvernementales américaines liées aux systèmes d’IA ont augmenté de 1 200% entre 2022 et 2023. Il est prévu qu’en 2025, les dépenses (estimées à 1,8 milliard de dollars) soient comme un minimum égal et la priorité d’utiliser ce type de la technologie est élevée. Il s’agit d’un chiffre presque résiduel, d’autant plus que depuis 2023, le budget militaire américain est d’environ 830 milliards de dollars.
Soyez prudent avec le bouton rouge. En septembre 2024, le sommet Reim a eu lieu en Corée du Sud sur l’utilisation potentielle des systèmes d’IA à des fins de guerre. La question fondamentale selon laquelle les pays d’assistance ont été soulevés était de savoir si les machines devaient prendre des décisions concernant l’utilisation des armes nucléaires. À l’exception de la Chine, le reste des pays était clair que le bouton rouge ne devrait pouvoir appuyer sur un être humain. La Russie n’a pas non plus participé au sommet: il a été interdit par la guerre de l’Ukraine.
Pour une utilisation éthique de l’IA dans les conflits de guerre. Les pays qui ont participé au sommet ont également signé un accord en vertu desquels les capacités de l’IA dans le domaine militaire « doivent être appliquées conformément au droit national et international applicable. Les demandes d’IA doivent être éthiques et axées sur l’être humain ».
Mais les armes avec l’IA sont sur le champ de bataille depuis un certain temps. Il est démontré par le fait que la technologie fait partie intégrante de la guerre de l’Ukraine. Au-delà de la surprise de rencontrer des ponts à vapeur en contrôlant des mitrailleuses puissantes, dans le conflit, ils sont utilisés par exemple des drones autonomes qui sont capables de fixer l’objectif, puis de l’attaquer.
Et le règlement, quoi? La loi bien connue de l’Union européenne IA exempte précisément (article 2, section 3) de ces obligations envers les systèmes d’IA qui sont utilisés exclusivement à des fins militaires, la défense ou la sécurité nationale, qu’elles se développent ou utilisent par des entités publiques ou privées .
Que disent le ministère de la Défense d’Espagne. Dans une récente déclaration du ministère espagnol de la Défense, précisément, l’IA militaire et « le marathon des normes humaines pour le réglementer » sont parlées. Là, les conclusions du Sommet Reim sont réaffirmées: l’IA peut être utilisée à des fins militaires, mais garantissant toujours « que l’IA ne menace pas la paix, la sécurité et la stabilité du monde, ne violez pas les droits de l’homme, n’évitez pas le contrôle humain et ne gêne pas les autres Initiatives liées à la technologie militaire. «
Image | Airman Magazine | United States Air Force
Dans Simseo | La Chine est le pays qui a augmenté son arsenal nucléaire. Maintenant, demandez aux États-Unis et à ses alliés
