Les agences de renseignement utilisent l’IA depuis la guerre froide, mais sont désormais confrontées à de nouveaux défis en matière de sécurité
La publicité récente autour du chatbot d’intelligence artificielle ChatGPT a suscité une grande inquiétude du public quant à sa croissance et son potentiel. L’Italie a récemment interdit la dernière version, invoquant des préoccupations concernant la confidentialité en raison de sa capacité à utiliser des informations sans autorisation.
Mais les agences de renseignement, y compris la CIA, en charge du renseignement étranger pour les États-Unis, et son organisation sœur, la National Security Agency (NSA), utilisent des formes antérieures d’IA depuis le début de la guerre froide.
La traduction automatique de documents en langue étrangère a jeté les bases des techniques modernes de traitement du langage naturel (TAL). La PNL aide les machines à comprendre le langage humain, leur permettant d’effectuer des tâches simples, telles que des vérifications orthographiques.
Vers la fin de la guerre froide, des systèmes basés sur l’IA ont été conçus pour reproduire la prise de décision d’experts humains pour l’analyse d’images afin d’aider à identifier les cibles possibles des terroristes, en analysant les informations au fil du temps et en les utilisant pour faire des prédictions.
Au 21e siècle, les organisations travaillant dans le domaine de la sécurité internationale dans le monde entier utilisent l’IA pour les aider à trouver, comme l’a déclaré l’ancien directeur américain du renseignement national Dan Coats en 2017, « des moyens innovants d’exploiter et d’établir la pertinence et d’assurer la véracité » de l’information. ils traitent.
Coats a déclaré que les contraintes budgétaires, les limites humaines et les niveaux croissants d’informations empêchaient les agences de renseignement de produire des analyses assez rapidement pour les décideurs politiques.
La Direction du renseignement national, qui supervise les opérations de renseignement américaines, a lancé l’initiative AIM en 2019. Il s’agit d’une stratégie conçue pour renforcer le renseignement à l’aide de machines, permettant à des agences comme la CIA de traiter d’énormes quantités de données plus rapidement qu’auparavant et permettant aux agents du renseignement humain de s’occuper d’autres tâches.
Les machines fonctionnent plus vite que les humains
Les politiciens subissent une pression croissante pour prendre des décisions éclairées plus rapidement que leurs prédécesseurs, car les informations sont disponibles plus rapidement que jamais. Comme l’a souligné la spécialiste du renseignement Amy Zegart, John F. Kennedy avait 13 jours pour décider d’un plan d’action sur la crise des missiles de Cuba en 1962. George W. Bush avait 13 heures pour formuler une réponse aux attentats terroristes du 11 septembre 2001. Les décisions de demain devront peut-être être prises en 13 minutes.
L’IA aide déjà les agences de renseignement à traiter et à analyser de grandes quantités de données provenant d’un large éventail de sources, et elle le fait jusqu’à présent plus rapidement et efficacement que les humains. L’IA peut identifier des modèles dans les données ainsi que détecter toute anomalie qui pourrait être difficile à détecter pour les agents du renseignement humain.
Les agences de renseignement peuvent également utiliser l’IA pour détecter toute menace potentielle à la technologie utilisée pour communiquer sur Internet, répondre aux cyberattaques et identifier les comportements inhabituels sur les réseaux. Il peut agir contre d’éventuels logiciels malveillants et contribuer à un environnement numérique plus sécurisé.
L’IA apporte des menaces de sécurité
L’IA crée à la fois des opportunités et des défis pour les agences de renseignement. Bien qu’il puisse aider à protéger les réseaux contre les cyberattaques, il peut également être utilisé par des individus ou des agences hostiles pour attaquer des vulnérabilités, installer des logiciels malveillants, voler des informations ou perturber et refuser l’utilisation de systèmes numériques.
Les cyber-attaques d’IA sont devenues une « menace critique », selon Alberto Domingo, directeur technique du cyberespace au Commandement allié de l’OTAN Transformation, qui a appelé à une régulation internationale pour ralentir le nombre d’attaques qui « augmentent de manière exponentielle ».
L’IA qui analyse les données de surveillance peut également refléter des biais humains. La recherche sur les programmes de reconnaissance faciale a montré qu’ils sont souvent moins performants pour identifier les femmes et les personnes à la peau plus foncée, car ils ont principalement été formés à l’aide de données sur des hommes blancs. Cela a conduit à interdire à la police d’utiliser la reconnaissance faciale dans des villes comme Boston et San Francisco.
L’inquiétude suscitée par la surveillance basée sur l’IA est telle que les chercheurs ont conçu un logiciel de contre-surveillance visant à tromper l’analyse des sons par l’IA, en utilisant une combinaison d’apprentissage prédictif et d’analyse de données.
Vérité ou mensonge ?
La désinformation en ligne (informations incorrectes) et la désinformation (informations délibérément fausses) représentent une autre préoccupation majeure liée à l’IA pour les agences de renseignement.
L’IA peut générer des images, des vidéos et des enregistrements audio « deepfake » faux mais crédibles, ainsi que du texte dans le cas de ChatGPT. Gordon Crovits de la société de recherche sur la désinformation en ligne Newsguard a déclaré que ChatGPT pourrait devenir « l’outil le plus puissant pour diffuser de la désinformation qui ait jamais existé sur Internet ».
Certaines agences de renseignement sont chargées d’empêcher la propagation de mensonges en ligne d’affecter les processus démocratiques. Mais il est presque impossible d’identifier la mésinformation ou la désinformation générée par l’IA avant qu’elle ne devienne virale. Et une fois que les fausses histoires sont largement crues, elles sont très difficiles à contrer.
Les agences courent également un risque accru de confondre de fausses informations avec de vraies informations, car les outils d’IA utilisés pour analyser les données en ligne peuvent ne pas être en mesure de faire la différence.
Problèmes de confidentialité
La grande quantité de données collectées à partir des activités de surveillance analysées par AI suscite également des inquiétudes concernant la vie privée et les libertés civiles.
Le Forum économique mondial a déclaré que l’IA doit placer la confidentialité avant l’efficacité lorsqu’elle est utilisée par les gouvernements dans des programmes de surveillance, tandis que certains universitaires et d’autres demandent une réglementation pour limiter l’impact de l’IA sur la société.
Les gouvernements doivent s’assurer que les agences qui utilisent l’IA pour effectuer une surveillance le font dans le cadre de la loi. Une telle surveillance exigerait que des directives claires soient établies, que des réglementations soient appliquées et que les contrevenants soient punis. Les premières indications montrent que les gouvernements ont été lents à suivre, même aux États-Unis.
Les vulnérabilités de l’IA signifient que, malgré les avancées technologiques du monde de l’après-guerre froide, il existe toujours un besoin d’agents humains et d’officiers du renseignement.
Comme l’indique Zegart, ce que l’IA va faire, c’est entreprendre les rôles d’analyse subalternes les plus chronophages que les humains font actuellement. Alors que l’IA permettra aux agences de renseignement de comprendre ce que sont les objets sur une photographie, par exemple, les agents du renseignement humain pourront dire pourquoi ces objets sont là.
Cela devrait conduire à une plus grande efficacité au sein des agences de renseignement. Mais pour surmonter les craintes de nombreux citoyens, la législation devra peut-être rattraper le fonctionnement du monde de l’IA.