AI in azienda: in Italia il 60% dei manager approva progetti anche con dubbi sulla sicurezza

Sécurité de l’IA, en Italie 60% approuvent les projets avec des doutes en matière de sécurité

En Italie, l’adoption de l’IA entre dans une phase dans laquelle la dynamique des entreprises pèse souvent plus que les précautions en matière de sécurité. Selon les données publiées par TrendAI, 60 % des chefs d’entreprise italiens déclarent avoir approuvé des projets d’intelligence artificielle malgré des doutes liés à la sécurité et à la conformité. La raison, dans la plupart des cas, est simple : la nécessité de rester compétitif et de répondre rapidement aux demandes internes.

Les données italiennes s’inscrivent dans un tableau plus large. La recherche mondiale « Ssécuriser l’entreprise basée sur l’IA« , commandé par TrendAI à Sapio Research, a impliqué 3 700 décideurs commerciaux et informatiques dans 23 pays et a constaté que 67 % des personnes interrogées dans le monde percevaient une pression pour approuver les initiatives d’IA même en présence de doutes sur la sécurité. TrendAI, il faut le rappeler, est la nouvelle marque avec laquelle Trend Micro a renommé son activité d’entreprise dédiée à la sécurité de l’IA en mars 2026.

Le point central n’est pas le manque de conscience du risque. Le fait est que de nombreuses organisations introduisent l’IA dans les processus critiques avant d’avoir mis en place un cadre de gouvernance approprié. Lorsque l’innovation résulte principalement de pressions concurrentielles, la sécurité a tendance à intervenir plus tard, avec une approche réactive.

Dans ce scénario, il y a de la place pour des responsabilités floues, des politiques incomplètes et l’utilisation d’outils non autorisés, ce que l’on appelle l’IA fantôme.

Politiques incomplètes et conformité encore incertaine

La photographie italienne montre un écart évident entre ambition et contrôle. 57% de l’échantillon déclare que l’IA dépasse aujourd’hui la capacité de défense de l’organisation. Seuls 20 % signalent l’existence de politiques complètes dédiées à l’IA, tandis que 41 % indiquent le manque de clarté des règles et des normes de conformité comme l’un des principaux obstacles. En parallèle, 23 % déclarent avoir une confiance modérée dans leur compréhension des cadres juridiques régissant l’IA.

Sur ce plan, le contexte européen explique au moins en partie cette incertitude. La Commission européenne rappelle que la loi IA est entrée en vigueur le 1er août 2024 et deviendra pleinement applicable à partir du 2 août 2026, avec des exceptions et des périodes de transition spécifiques : les règles pour les modèles GPAI sont valables à partir du 2 août 2025, tandis que certaines règles sur les systèmes à haut risque insérés dans les produits réglementés sont reportées au 2 août 2027.

La Commission elle-même prépare encore d’autres lignes directrices et outils de soutien pour une mise en œuvre pratique.

Pour les entreprises, cela signifie quelque chose de très concret : l’IA entre en production alors que le cadre de gouvernance reste, dans de nombreux cas, incomplet. Les choix opérationnels qui en résultent peuvent paraître efficaces à court terme mais qui exposent l’entreprise à de futurs problèmes de contrôle, d’audit, de gestion des données et de responsabilisation.

Le nœud des agents autonomes

Le chapitre le plus délicat concerne l’IA agentique et, plus généralement, les systèmes autonomes capables d’accéder aux données, d’activer des flux et de prendre des décisions avec des marges de plus en plus larges. Dans l’échantillon italien, 43 % estiment que ces technologies peuvent améliorer considérablement la cyberdéfense à court terme. Toutefois, la confiance n’élimine pas les peurs.

39 % des personnes interrogées identifient l’accès aux données sensibles comme le principal risque. 25% craignent des invites malveillantes capables de modifier le comportement des systèmes, tandis que 26% appellent à l’expansion de la surface d’attaque. 28 % supplémentaires signalent un éventuel abus du statut d’IA jugée fiable et les risques liés à la mise en œuvre autonome du code. Pour rendre le tableau encore plus critique, il existe un autre chiffre : 28 % admettent qu’ils ne disposent pas d’une observabilité ou d’une vérifiabilité adéquate sur les systèmes déjà utilisés.

C’est ici que surgit la contradiction la plus forte. Les entreprises considèrent les agents IA comme un outil utile pour réduire le temps, alléger les charges opérationnelles et renforcer certaines activités de défense. Dans le même temps, une partie importante de l’échantillon admet ne pas avoir une visibilité complète sur ce que font ces systèmes une fois activés. Sans traçabilité, audit et contrôle d’accès, l’automatisation risque de déplacer le problème plutôt que de le résoudre.

Qui décide et qui répond

La question de la responsabilité reste ouverte. Lorsqu’un système d’IA entre dans un processus métier, une chaîne de gouvernance claire est nécessaire, impliquant la gestion, les fonctions juridiques, la sécurité, la protection des données et les secteurs d’activité. Dans le rapport mondial, TrendAI observe que la responsabilité du risque lié à l’IA est souvent fragmentée entre les équipes RSSI, sécurité, conformité, juridique et protection des données, la répartition évoluant en fonction du profil du répondant.

Aussi le thème de coupe-circuitc’est-à-dire des mécanismes d’arrêt rapide en cas d’erreur ou de mauvaise utilisation, fait encore l’objet d’un consensus partiel. En Italie, 38% se déclarent favorables à leur introduction, alors qu’une partie significative de l’échantillon n’exprime pas de position claire. C’est un signal important : de nombreuses entreprises souhaitent exploiter des systèmes plus autonomes, mais n’ont pas encore partagé les conditions minimales pour garder le contrôle.

Une question de priorité managériale

Le message qui ressort de la recherche est que le problème ne concerne pas seulement la sécurité au sens technique, mais aussi la qualité de la gouvernance d’entreprise en matière d’IA. L’adoption ne peut pas dépendre uniquement de la pression du marché ou de la peur d’être laissé pour compte. Vous avez besoin d’une structure qui définit les rôles, les politiques, les limites d’accès, la surveillance et la réponse aux incidents.

C’est pourquoi le chiffre de 60 % ne décrit pas seulement une course à l’innovation. Il décrit également la fragilité organisationnelle. Les entreprises italiennes semblent conscientes des enjeux, mais ne disposent pas toujours des outils nécessaires pour traduire cette prise de conscience en contrôle opérationnel.

C’est sur cette lacune, plutôt que sur la technologie elle-même, que se jouera une part importante de la sécurité de l’IA dans les mois à venir.