L’intégration rapide des agents d’IA dans les flux de travail des entreprises révèle une faille critique : il n’existe aucun système clair pour gérer leurs identités et leurs droits d’accès. À mesure que ces agents acquièrent la capacité de se connecter aux systèmes, de récupérer des données et d’exécuter des actions au nom des entreprises, la question de savoir qui est responsable – et comment contrôler cet accès – reste largement sans réponse.
Ce n’est pas une préoccupation théorique. Des experts comme Alex Stamos (Corridor) et Nancy Wang (1Password) préviennent que les développeurs commettent déjà des erreurs dangereuses, comme coller des informations d’identification directement dans les invites de l’IA. Cela contourne les protocoles de sécurité et crée une vulnérabilité massive.
Le problème : les agents ont aussi des secrets
Le problème ne consiste pas seulement à empêcher les accès non autorisés ; c’est une question de responsabilité. Contrairement aux utilisateurs humains, les agents IA n’appartiennent pas intrinsèquement à une organisation ou à un individu. Ils opèrent sous une autorité qui dicte ce qu’ils peuvent faire, mais suivre cette autorité s’avère difficile. Comme l’explique Wang, les entreprises observent un schéma familier : les employés adoptent des outils tels que les assistants de codage IA (Claude Code, Cursor), puis les intègrent dans l’entreprise, reproduisant l’adoption précoce de gestionnaires de mots de passe comme 1Password.
Le problème n’est pas seulement que les agents disposent d’informations d’identification ; c’est que l’infrastructure de sécurité existante n’est pas conçue pour eux.
Pourquoi les solutions existantes échouent
Les modèles de sécurité traditionnels se concentrent sur l’authentification (vérification de l’identité) mais peinent avec l’autorisation (accorder un accès approprié). Donner à un agent IA un accès complet à un système équivaut à donner à un humain la clé de l’ensemble du bâtiment – bien plus que nécessaire pour une seule tâche.
Cette inadéquation est particulièrement dangereuse car les LLM sont sujets aux faux positifs. Un scanner de sécurité signalant un code légitime comme malveillant peut faire dérailler une session de développement entière, ce qui rend la précision cruciale. Les outils d’analyse statique traditionnels ne sont pas optimisés pour ce niveau de précision.
La voie à suivre : normes d’identité de charge de travail
L’industrie explore des solutions telles que SPIFFE et SPIRE, des normes initialement conçues pour les environnements conteneurisés, mais leur adaptation est imparfaite. Le principe de base est d’accorder des identités ciblées, vérifiables et limitées dans le temps. Tout comme un humain ne devrait avoir accès qu’à des pièces spécifiques d’un bâtiment, un agent d’IA ne devrait recevoir que des informations d’identification pour la tâche à accomplir, expirant une fois terminée.
Les entreprises devront savoir quel agent a agi, sous quelle autorité et avec quelles informations d’identification. Cela nécessite de construire une nouvelle infrastructure à partir de zéro, plutôt que de moderniser des modèles de sécurité centrés sur l’humain.
Le problème d’échelle : des milliards d’utilisateurs changent tout
À grande échelle, même les « cas extrêmes » deviennent de véritables menaces. Stamos, s’appuyant sur son expérience en tant que RSSI de Facebook, note que faire face à 700 000 piratages de comptes par jour recadre la notion de risque. La gestion des identités, tant pour les humains que pour les agents IA, constituera un « énorme problème », nécessitant une consolidation autour de fournisseurs de confiance.
En fin de compte, la ruée actuelle vers le déploiement d’agents d’IA dépasse le développement de cadres de gouvernance appropriés. La solution ne consiste pas en des outils propriétaires et brevetés (Stamos les rejette catégoriquement), mais plutôt en des standards ouverts comme les extensions OIDC qui donnent la priorité à la sécurité sans sacrifier la convivialité. L’avenir de l’IA d’entreprise dépend de la résolution de cette crise d’identité avant qu’elle n’entraîne des violations généralisées et des dommages irréversibles.
