Chat,Conversation,Assistant,,Contact,Us,Or,Customer,Support,Hotline,People

L’essor de l’IA agentique : opportunités et risques en matière de sécurité selon Gartner

LE'L'IA agentique pourrait considérablement améliorer le potentiel de l'intelligence artificiellepassant de 1% à 33% d'intégration dans les applications logicielles d'entreprise d'ici 2028. Selon Gartner. Cette technologie entraîne cependant de nouveaux risques et menaces de sécurité, comme le souligne Avivah Litanvice-président et analyste du cabinet de conseil.

Autonomie et potentiel de l'IA agentique

À ce jour, les grands modèles de langage (LLM) n’ont pas agi de leur propre initiative. Cependant, grâce à l’IA agentique, ces modèles peuvent fonctionner de manière autonome avec une supervision humaine minimale, s’adaptant au contexte et poursuivant des objectifs dans des environnements complexes. Cette capacité pourrait considérablement accroître le potentiel de l’IA, lui permettant d’examiner des données, d’effectuer des recherches et d’accomplir des tâches dans les mondes numérique et physique via des API ou des systèmes robotiques.

Gartner prédit que d’ici 2028, les machines d’IA agents clients pourraient remplacer 20 % des interactions lisibles par l’homme dans les vitrines numériques. En outre, au moins 15 % des décisions professionnelles quotidiennes pourraient être prises de manière autonome via l’IA agentique, contre zéro en 2024.

LE risques et menaces de l’IA agentique

Malgré les applications prometteuses, les utilisateurs doivent être conscients des risques supplémentaires. Comme le déclare Litan : « Avec les modèles et applications d’IA standard, la surface des menaces est souvent limitée aux entrées, au traitement et aux sorties du modèle, aux vulnérabilités logicielles dans la couche d’orchestration et aux environnements qui les hébergent. » En utilisant des agents IA, la surface des menaces s’élargit pour inclure la chaîne d’événements et d’interactions qu’ils déclenchent.

Pour gérer ces menaces, Litan recommande aux responsables informatiques d'informer leur organisation sur les risques inhérents aux agents d'IA et de prendre des mesures pour les atténuer. Ces actions peuvent inclure la détection et le signalement des activités anormales des agents IA et de celles qui enfreignent les politiques spécifiques de l'entreprise, ainsi que la visualisation et la cartographie de toutes les activités et flux d'informations des agents IA.

L'écart entre les assistants LLM et les agents IA complets

Les entreprises mettent déjà en œuvre ou personnalisent des produits dotés de capacités d'agent IA, notamment Microsoft Copilot Studio, Azure AI Studio, AWS Bedrock et Google NotebookLM. Cependant, il existe encore un écart important entre les assistants actuels basés sur le LLM et les agents IA complets. Cette lacune devrait être comblée dans un premier temps pour des tâches à portée limitée et pourrait s'élargir à mesure que le monde apprend à construire, gouverner et faire confiance aux solutions d'IA agentique, selon Gartner.