La croyance en IA en tant que «grande machine» pourrait affaiblir les réponses de la crise de la sécurité nationale, de nouvelles recherches révèlent
L’intelligence artificielle conçue pour influencer nos décisions est partout – dans les recherches Google, dans les suggestions d’achat en ligne et dans les recommandations de streaming de films. Mais comment cela affecte-t-il la prise de décision dans les moments de crise?
Le chercheur de Virginia Commonwealth University, Christopher Whyte, Ph.D., a étudié comment les professionnels de la gestion des urgences et de la sécurité nationale ont répondu lors des attaques simulées de l’IA.
Les résultats, publiés dans le Journal of Homeland Security and Urgery Managementrévèlent que les professionnels étaient plus hésitants et douteux de leurs capacités face à des menaces complètement axées sur l’IA que lorsqu’ils étaient confrontés à des menaces de pirates humains ou de pirates qui n’étaient assistés que par l’IA.
« Ces résultats montrent que l’IA joue un rôle majeur dans la conduite des participants pour devenir plus hésitant, plus prudent », a-t-il dit, « sauf dans des circonstances assez étroites. »
Ces circonstances étroites sont les plus préoccupantes à Whyte, professeur agrégé de la L. Douglas Wilder School of Guricol and Affairs de VCU.
Les organisations de sécurité nationale conçoivent leurs programmes de formation pour réduire l’hésitation dans des moments d’incertitude. Alors que la plupart des près de 700 professionnels américains et européens de l’étude pensaient que l’IA pourrait stimuler les capacités humaines, un petit groupe pensait que l’IA pourrait éventuellement remplacer pleinement leur profession et l’expertise humaine en général. Ce groupe a répondu imprudemment à la menace basée sur l’IA, acceptant les risques et avance avec précaution.
« Ce sont des gens qui croient la totalité de ce qu’ils font – leur mission professionnelle et la mission institutionnelle qu’ils soutiennent – pourraient être dépassées par l’IA », a déclaré Whyte.
Intelligence artificielle: la prochaine «grande machine»
Whyte a une théorie pour expliquer pourquoi cela pourrait être le cas.
La théorie discréditée « grand homme » propose que le cours de l’histoire a principalement été façonné par de fortes personnalités politiques, tandis que les historiens modernes accordent plus de crédit aux mouvements populaires. Maintenant, Whyte propose que l’histoire ait également été façonnée par des inventions technologiques transformatrices, comme les ondes télégraphiques ou radio, et la foi égouttement en leur pouvoir – ce qu’il a inventé la théorie de la « grande machine ».
Mais contrairement à la théorie du « grand homme », Whyte a dit, « les grandes machines » sont une force sociétale partagée qui peut être exploitée au profit de la société – ou pour son détriment.
« Au milieu des années 1930, par exemple, nous savions que les ondes radio avaient beaucoup de potentiel pour beaucoup de choses », a déclaré Whyte. « Mais l’une des premières idées a été pour les rayons de la mort – vous pouviez faire frire votre cerveau, et ainsi de suite. »
Death Rays a fait ses preuves, inspirant à la fois des histoires de science-fiction et des tentatives réelles de les construire pendant la Première Guerre mondiale et de l’entre-deux-guerres. Ce n’est que quelques années avant la Seconde Guerre mondiale que les scientifiques ont commencé à construire quelque chose de pratique avec des ondes radio: Radar.
La société est actuellement confrontée au même problème avec l’IA, a déclaré Whyte, ce qu’il appelle une technologie « à usage général » qui pourrait aider ou nuire à la société. La technologie a déjà considérablement changé la façon dont certaines personnes pensent du monde et de leur place.
« Il fait tellement de choses différentes que vous avez vraiment ce domaine émergent de mentalités de remplacement », a-t-il déclaré. « Comme dans, le monde de demain sera complètement différent, et ma place là-bas n’existera tout simplement pas parce que [AI] Va tout fondamentalement changer. «
Cette ligne de pensée pourrait poser des problèmes pour les professionnels de la sécurité nationale, car la nouvelle technologie augmente la façon dont ils pensent de leurs propres capacités et modifient la façon dont ils réagissent aux situations d’urgence.
« C’est le genre de condition psychologique où nous finissons malheureusement de devoir jeter le livre de règles sur ce que nous savons lutter contre les biais ou l’incertitude », a déclaré Whyte.
Combattre les menaces de niveau «Skynet»
Pour étudier comment l’IA affecte les capacités de prise de décision des professionnels, Whyte a recruté près de 700 professionnels de la gestion des urgences et de la sécurité intérieure des États-Unis, de l’Allemagne, du Royaume-Uni et de la Slovénie pour participer à un jeu de simulation.
Au cours de l’expérience, les professionnels ont été confrontés à une menace typique de la sécurité nationale: un gouvernement étranger interférant lors d’une élection dans leur pays. Ils ont ensuite été affectés à l’un des trois scénarios: un scénario de contrôle, où la menace impliquait que des pirates humains; un scénario avec une implication légère et « tactique » de l’IA, où les pirates ont été aidés par l’IA; et un scénario avec de lourds niveaux d’implication de l’IA, où les participants ont été informés que la menace était orchestrée par un programme d’IA « stratégique ».
Lorsqu’il est confronté à une menace stratégique basée sur l’IA – ce que What appelle une menace de niveau « Skynet », faisant référence à la franchise de film « Terminator » – les professionnels avaient tendance à douter de leur formation et ont hésité à agir. Ils étaient également plus susceptibles de demander des informations supplémentaires sur le renseignement par rapport à leurs collègues des deux autres groupes, qui ont généralement répondu à la situation en fonction de leur formation.
En revanche, les participants qui ont considéré l’IA comme une « grande machine » qui pourrait les remplacer complètement a agi sans retenue et pris des décisions qui contredisaient leur formation.
Et bien que l’expérience et l’éducation aient aidé à modérer la façon dont les professionnels ont répondu aux attaques assistées par l’IA, ils n’ont pas affecté la façon dont les professionnels ont réagi à la menace de niveau « Skynet ». Cela pourrait représenter une menace à mesure que les attaques d’IA deviennent plus courantes, a déclaré Whyte.
« Les gens ont des opinions variables sur le fait que l’IA concerne l’augmentation, ou si c’est vraiment quelque chose qui va les remplacer », a déclaré Whyte. « Et cela change de manière significative comment les gens réagiront en crise. »