IA agentique : Keyfactor alerte sur les défis de confiance liés au passage de l’automatisation à l’autonomieA mesure que l’intelligence artificielle (IA) évolue vers des systèmes capables d’agir et de décider par eux-mêmes, les entreprises basculent petit à petit dans l’ère de l’IA agentique (*). Dans la dernière étude publiée dans son magazine “Digital Trust Digest” la société américaine Keyfactor, spécialiste de la cybersécurité, de l’identité numérique et des infrastructures à clés publiques, analyse ce passage actuel de l’automatisation vers l’autonomie et alerte sur les nouveaux défis de sécurité, de gouvernance et de responsabilité qu’il entraîne. Alors que les agents IA interagissent désormais directement avec les infrastructures et les données des entreprises, la question centrale devient celle de la confiance, estime Keyfactor : comment contrôler, tracer et sécuriser des systèmes qui prennent désormais des décisions de manière autonome ? Jusqu’à récemment, les systèmes d’IA intervenaient principalement comme des outils d’automatisation, explique Keyfactor. Leur rôle consistait à suivre des instructions prédéfinies sous une supervision humaine constante. L’émergence des agents IA marque à ce niveau une rupture profonde, estime la société. Ils prennent désormais des initiatives et sont capables d’analyser un contexte, de décider d’une action et de l’exécuter de manière autonome. Dans les environnements informatiques modernes, cette évolution signifie par exemple qu’un agent peut modifier une configuration d’infrastructure ou accéder à certaines données pour accomplir une mission. Cette capacité à agir de manière indépendante ouvre des perspectives considérables en matière d’efficacité et d’innovation.
Dans le même temps, moins de trois entreprises sur dix pensent être capables de stopper un agent d’IA incontrôlé avant qu’il ne provoque des dommages. Ces préoccupations ne traduisent pas une remise en cause du potentiel de l’IA, mais une incertitude quant à la maturité des entreprises à en maîtriser les limites dès lors que les systèmes commencent à agir de manière autonome, estime Keyfactor. Ainsi, dans un environnement d’IA agentique, la question n’est plus seulement de savoir si un système fonctionne correctement, mais de comprendre comment il se comporte lorsqu’il agit seul. Les agents IA s’appuient à ce niveau sur des modèles probabilistes pour raisonner et prendre des décisions. Cette évolution transforme la cybersécurité : le défi ne consiste plus uniquement à protéger les accès aux systèmes, mais à surveiller, encadrer et gérer les comportements des entités autonomes qui opèrent en leur sein. Pour Keyfactor, la confiance dans l’IA autonome repose sur un principe clé : chaque agent doit disposer d’une identité numérique forte, unique et vérifiable. Elle permet d’authentifier l’agent qui agit dans un système, de tracer précisément les actions qu’il réalise, d’appliquer des politiques de sécurité adaptées mais aussi de suspendre ou révoquer immédiatement un agent en cas de comportement suspect. Dans un environnement où des systèmes prennent des décisions et exécutent des actions sans intervention humaine directe, l’identité devient l’infrastructure essentielle de la gouvernance de l’IA. La maîtrise de l’autonomie passe désormais par la maîtrise de l’identité. (*) Une IA agentique est un système d’IA distribué capable d’agit de manière autonome pour prendre des décisions ou enchaîner des opérations afin d'atteindre un objectif pré-défini en s'appuyant sur des modèles d’IA et en coordonnant divers agents d’IA. Ces derniers sont des composants logiciels exécutant chacun une tâche définie limités et précise sans recours à une supervision humaine. Ces agents d’IA sont généralement intégré dans des logiciels applications, dits logiciels agentiques. |