Les futuristes utilisent une étude Delphi pour mettre en évidence les principaux risques technologiques auxquels nous serons confrontés d’ici 2040.
Des changements incroyablement rapides se produisent dans la technologie et la portée des systèmes informatiques. Des avancées passionnantes sont réalisées dans le domaine de l’intelligence artificielle, dans la masse de minuscules appareils interconnectés que nous appelons l’Internet des objets et dans la connectivité sans fil.
Malheureusement, ces améliorations comportent des dangers potentiels ainsi que des avantages. Pour avoir un avenir sûr, nous devons anticiper ce qui pourrait arriver dans le domaine informatique et y remédier le plus tôt possible. Alors, selon les experts, que va-t-il se passer et que pourrions-nous faire pour éviter des problèmes majeurs ?
Pour répondre à cette question, notre équipe de recherche des universités de Lancaster et de Manchester s’est tournée vers la science de l’avenir, appelée « prévision ». Personne ne peut prédire l’avenir, mais nous pouvons établir des prévisions : des descriptions de ce qui pourrait arriver en fonction des tendances actuelles.
En effet, les prévisions à long terme des tendances technologiques peuvent s’avérer remarquablement précises. Et un excellent moyen d’obtenir des prévisions est de combiner les idées de nombreux experts différents pour déterminer les points sur lesquels ils s’accordent.
Nous avons consulté 12 experts « futuristes » pour un nouveau document de recherche. Il s’agit de personnes dont le rôle consiste à prévoir à long terme les effets des changements technologiques d’ici 2040.
À l’aide d’une technique appelée étude Delphi, nous avons combiné les prévisions des futuristes en un ensemble de risques, ainsi que leurs recommandations pour faire face à ces risques.
Problèmes logiciels
Les experts prévoyaient des progrès rapides dans le domaine de l’intelligence artificielle (IA) et des systèmes connectés, conduisant à un monde beaucoup plus informatisé qu’aujourd’hui. Étonnamment, cependant, ils s’attendaient à peu d’impact de deux innovations très médiatisées : la blockchain, un moyen d’enregistrer des informations qui rend impossible ou difficile la manipulation du système, ont-ils suggéré, n’a pratiquement aucun rapport avec les problèmes d’aujourd’hui ; et l’informatique quantique en est encore à ses débuts et pourrait avoir peu d’impact au cours des 15 prochaines années.
Les futuristes ont souligné trois risques majeurs associés au développement des logiciels informatiques, comme suit.
La concurrence en matière d’IA mène à des problèmes
Nos experts suggèrent que la position de nombreux pays concernant l’IA comme un domaine dans lequel ils souhaitent acquérir un avantage technologique concurrentiel encouragera les développeurs de logiciels à prendre des risques dans leur utilisation de l’IA. Ceci, combiné à la complexité de l’IA et à son potentiel à dépasser les capacités humaines, pourrait conduire à des catastrophes.
Par exemple, imaginez que des raccourcis dans les tests conduisent à une erreur dans les systèmes de contrôle des voitures construites après 2025, ce qui passe inaperçu au milieu de toute la programmation complexe de l’IA. Cela pourrait même être lié à une date précise, ce qui entraînerait un comportement erratique d’un grand nombre de voitures en même temps, tuant de nombreuses personnes dans le monde.
IA générative
L’IA générative peut rendre la vérité impossible à déterminer. Pendant des années, les photos et les vidéos ont été très difficiles à falsifier, c’est pourquoi nous attendons d’elles qu’elles soient authentiques. L’IA générative a déjà radicalement changé cette situation. Nous nous attendons à ce que sa capacité à produire de faux médias convaincants s’améliore, de sorte qu’il sera extrêmement difficile de déterminer si une image ou une vidéo est réelle.
Supposons qu’une personne en position de confiance – un leader respecté ou une célébrité – utilise les médias sociaux pour diffuser du contenu authentique, mais incorpore parfois des contrefaçons convaincantes. Pour ceux qui les suivent, il n’y a aucun moyen de déterminer la différence : il sera impossible de connaître la vérité.
Cyberattaques invisibles
Enfin, la simple complexité des systèmes qui seront construits – des réseaux de systèmes appartenant à différentes organisations, dépendant tous les uns des autres – a une conséquence inattendue. Il deviendra difficile, voire impossible, de trouver l’origine de ce qui fait que les choses tournent mal.
Imaginez un cybercriminel piratant une application utilisée pour contrôler des appareils tels que des fours ou des réfrigérateurs, provoquant ainsi l’allumage de tous les appareils en même temps. Cela crée une hausse de la demande d’électricité sur le réseau, provoquant d’importantes pannes de courant.
Les experts des compagnies d’électricité auront du mal à identifier ne serait-ce que les appareils à l’origine du pic, et encore moins à déterminer s’ils sont tous contrôlés par la même application. Le cybersabotage deviendra invisible et impossible à distinguer des problèmes normaux.
Logiciel de ju-jitsu
Le but de ces prévisions n’est pas de semer l’inquiétude, mais de nous permettre de commencer à résoudre les problèmes. La suggestion la plus simple suggérée par les experts était peut-être une sorte de jujitsu logiciel : utiliser un logiciel pour se protéger et se protéger contre lui-même. Nous pouvons obliger les programmes informatiques à effectuer leurs propres audits de sécurité en créant du code supplémentaire qui valide les résultats des programmes – en fait, un code qui s’auto-vérifie.
De même, nous pouvons insister pour que les méthodes déjà utilisées pour garantir un fonctionnement sûr des logiciels continuent d’être appliquées aux nouvelles technologies. Et que la nouveauté de ces systèmes ne soit pas un prétexte pour négliger les bonnes pratiques de sécurité.
Solutions stratégiques
Mais les experts ont convenu que les réponses techniques ne suffiraient pas à elles seules. Les solutions seront plutôt trouvées dans les interactions entre les humains et la technologie.
Nous devons développer les compétences nécessaires pour faire face à ces problèmes de technologie humaine et créer de nouvelles formes d’éducation interdisciplinaires. Et les gouvernements doivent établir des principes de sécurité pour leurs propres achats d’IA et légiférer pour la sécurité de l’IA dans l’ensemble du secteur, en encourageant des méthodes de développement et de déploiement responsables.
Ces prévisions nous donnent une gamme d’outils pour faire face aux éventuels problèmes du futur. Adoptons ces outils pour réaliser la promesse passionnante de notre avenir technologique.