ai_nei_professional_services_ai4business

Gouvernance de l’IA et cybersécurité : l’avenir des gouvernements et des entreprises

L’intelligence artificielle est vouée à redéfinir radicalement le fonctionnement des administrations publiques. Selon les prévisions les plus récentes de Gartner, d’ici 2028, au moins 80 % des gouvernements adopteront des agents d’IA pour automatiser les processus décisionnels de routine, dans le but d’améliorer l’efficacité et la qualité des services.

Cette transformation ne concerne pas seulement l’automatisation, mais implique un changement structurel dans la manière dont les décisions sont conçues et mises en œuvre. La pression croissante exercée sur les DSI publics souligne la nécessité d’intégrer rapidement l’IA dans les processus décisionnels tout en maintenant des normes élevées de responsabilité.

« Les responsables informatiques du gouvernement subissent une pression croissante pour intégrer l'IA dans les processus décisionnels de manière rapide et responsable », a déclaré Daniel Nieto, analyste directeur principal chez Gartner. « L’essor de l’IA multimodale, ainsi que des systèmes conversationnels et d’agents, a élargi les possibilités des organisations publiques en termes d’automatisation, de compréhension et d’anticipation. »


Le problème de la fragmentation numérique

Malgré son potentiel, l’adoption de l’IA dans l’administration publique se heurte à des obstacles importants. Parmi ceux-ci, la fragmentation des systèmes et stratégies numériques représente l’un des principaux obstacles.

Une enquête mondiale menée en 2025 a souligné que 41 % des organisations publiques souffrent de stratégies cloisonnées, tandis que 31 % sont toujours liées à des systèmes existants. Ces facteurs rendent difficile la mise en œuvre de solutions numériques cohérentes et évolutives.

« La modernisation technologique à elle seule n’a pas résolu ces problèmes », souligne Nieto, soulignant à quel point une simple innovation technologique ne suffit pas sans un changement organisationnel plus profond.


De la gouvernance des modèles d’IA à la gouvernance des décisions

L’un des changements les plus pertinents concerne l’évolution de la gouvernance de l’intelligence artificielle. Traditionnellement axée sur les données, les modèles et les algorithmes, elle s’oriente aujourd’hui vers une approche centrée sur la décision.

Le soi-disant intelligence décisionnelle introduit un paradigme dans lequel chaque décision est systématiquement conçue, surveillée et vérifiée. Cette approche est particulièrement cruciale dans le secteur public, où la transparence et l'équité sont des éléments fondamentaux de la légitimité institutionnelle.

« En réglementant les décisions, plutôt que de les limiter à des composants individuels de l'IA, les gouvernements peuvent trouver un meilleur équilibre entre l'automatisation et le jugement humain, en particulier dans les contextes à haut risque ou ayant un impact sur les droits », explique Nieto. « Les industries réglementées et les gouvernements ne peuvent pas s'appuyer sur des systèmes opaques de « boîte noire » pour prendre des décisions critiques. intelligence décisionnelle élève l’explicabilité d’une exigence technique à un impératif de gouvernance.


Transparence et contrôle humain : le rôle de XAI et HITL

La nécessité de rendre les décisions compréhensibles conduit à l’adoption croissante des systèmes d’IA explicable (XAI) et de Human-in-the-Loop (HITL). D’ici 2029, 70 % des agences gouvernementales devraient exiger ces mécanismes pour toutes les décisions automatisées ayant un impact sur les services aux citoyens.

Ces outils vous permettent de :

  • rendre la logique décisionnelle vérifiable
  • garantir le contrôle humain dans les cas les plus critiques
  • préserver la responsabilité institutionnelle

Dans un contexte où les décisions automatisées peuvent avoir des impacts significatifs sur les droits des citoyens, la transparence devient non seulement une exigence technique, mais un principe démocratique.


L’expérience citoyenne comme nouvelle mesure

Dans le même temps, la manière de mesurer la valeur de l’intelligence artificielle évolue également. Il ne s’agit plus seulement d’efficacité, mais aussi de qualité de l’expérience citoyenne.

50 % des organisations publiques considèrent l’amélioration de l’expérience utilisateur parmi leurs principales priorités. Cela implique une transformation des services publics de réactifs à proactifs.

« Lorsque les citoyens reçoivent automatiquement ce dont ils ont besoin du gouvernement, les interactions directes peuvent diminuer, ce qui rend encore plus critique la confiance dans la fiabilité, l'équité et la transparence du système », explique Nieto.

L'intelligence décisionnelle permet d'anticiper les besoins des citoyens, en offrant des services personnalisés et en réduisant les délais et les inefficacités, tout en renforçant la confiance dans les institutions.


L’envers de l’IA : les risques liés à la cybersécurité

Si l’IA représente une opportunité pour les gouvernements, elle introduit également de nouveaux défis dans le domaine de la cybersécurité, notamment pour les entreprises.

Selon Gartner, d’ici 2028, 50 % des activités de réponse aux incidents seront liées à des applications basées sur l’IA, notamment celles développées en interne.

« L'intelligence artificielle évolue rapidement, mais de nombreux outils, en particulier les applications d'IA personnalisées, sont déployés avant d'avoir été entièrement testés », explique Christopher Mixter, analyste vice-président chez Gartner. « Ces systèmes sont complexes, dynamiques et difficiles à sécuriser dans le temps. La plupart des équipes de sécurité ne disposent toujours pas de procédures claires pour gérer les incidents liés à l'IA, ce qui signifie que la résolution des problèmes peut prendre plus de temps et nécessiter beaucoup plus d'efforts.


Le rôle stratégique des responsables de la sécurité

Face à ces risques, Gartner recommande une implication précoce des responsables de la sécurité dans les projets d’IA. La planification, l'allocation des ressources et la définition des contrôles doivent avoir lieu dès les étapes initiales.

Cette approche est essentielle pour éviter les vulnérabilités structurelles difficiles à corriger par la suite, notamment dans les systèmes complexes et dynamiques tels que ceux basés sur l’IA.


Plateformes de sécurité IA : une nouvelle priorité

D’ici 2028, plus de 50 % des entreprises utiliseront des plateformes dédiées à la sécurité de l’IA. Ces outils vous permettent de gérer les risques émergents tels que :

En centralisant le contrôle et la visibilité, ces plateformes permettent aux responsables de la sécurité d'appliquer des politiques cohérentes dans toutes les applications d'IA, tant internes que tierces.


Risque réglementaire et coût de la non-conformité

Un autre problème crucial concerne la conformité réglementaire. D’ici 2027, 75 % des organisations réglementées risquent des amendes dépassant 5 % de leur chiffre d’affaires mondial en raison de processus de conformité manuels.

La complexité croissante des réglementations en matière d’IA nécessite une approche systématique de la gestion des risques, soutenue par des technologies de gouvernance avancées.


Le problème de la « dette de données »

Un autre obstacle à l’adoption sûre de l’IA est représenté par ce que l’on appelle « Dette des données de l’IA ». D’ici 2030, 33 % du travail informatique sera consacré au nettoyage et à la sécurisation des données.

En effet, de nombreuses organisations disposent de données non structurées ou mal protégées, impropres à une utilisation dans les systèmes d’intelligence artificielle. Cela nécessite des programmes structurés de :

  • analyse des données
  • contrôle d'accès
  • amélioration de la qualité

Souveraineté numérique et tensions géopolitiques

Les tensions géopolitiques poussent également les organisations à repenser la gestion de la sécurité du cloud. D’ici 2027, 30 % des entreprises auront besoin d’une souveraineté totale sur les contrôles de sécurité.

Cela implique des choix stratégiques sur les fournisseurs de technologies et une plus grande attention aux réglementations locales, dans un contexte mondial de plus en plus fragmenté.


Identité numérique : le nouveau champ de bataille

Enfin, l’identité numérique apparaît comme un vecteur d’attaque majeur. D’ici 2028, 70 % des RSSI utiliseront des outils avancés de visibilité et d’analyse des identités pour réduire le risque de compromission.

La complexité croissante des écosystèmes numériques, avec les identités humaines et de machine à machine, nécessite une approche intégrée de la gestion des accès basée sur l'IA.


Conclusions : la confiance et la sécurité au cœur de la révolution de l'IA

L’intelligence artificielle s’affirme comme l’un des principaux moteurs de la transformation numérique, tant dans le secteur public que privé. Cependant, son succès dépendra de sa capacité à concilier innovation, transparence et sécurité.

D’une part, les gouvernements devront élaborer des modèles décisionnels fiables et compréhensibles ; de l’autre, les entreprises devront faire face à des cyber-risques de plus en plus sophistiqués.

Dans les deux cas, la confiance – des citoyens et des utilisateurs – représente le véritable capital sur lequel bâtir l’avenir numérique.