De snelle integratie van AI-agents in zakelijke workflows legt een kritieke fout bloot: er bestaat geen duidelijk systeem voor het beheren van hun identiteit en toegangsrechten. Nu deze agenten de mogelijkheid krijgen om in te loggen op systemen, gegevens op te halen en acties uit te voeren namens bedrijven, blijft de vraag wie verantwoordelijk is – en hoe die toegang te controleren – grotendeels onbeantwoord.
Dit is geen theoretische zorg. Experts als Alex Stamos (Corridor) en Nancy Wang (1Password) waarschuwen dat ontwikkelaars al gevaarlijke fouten maken, zoals het rechtstreeks in AI-prompts plakken van inloggegevens. Dit omzeilt beveiligingsprotocollen en creëert een enorme kwetsbaarheid.
Het probleem: agenten hebben ook geheimen
Het gaat niet alleen om het voorkomen van ongeoorloofde toegang; het gaat over verantwoordelijkheid. In tegenstelling tot menselijke gebruikers behoren AI-agenten niet inherent tot een organisatie of individu. Ze opereren onder een autoriteit die dicteert wat ze kunnen doen, maar het volgen van deze autoriteit blijkt moeilijk. Zoals Wang uitlegt, zien bedrijven een bekend patroon: werknemers adopteren tools zoals AI-coderingsassistenten (Claude Code, Cursor) en brengen deze vervolgens naar de onderneming, waarmee ze de vroege adoptie van wachtwoordmanagers zoals 1Password repliceren.
Het probleem is niet alleen dat agenten inloggegevens hebben; het is dat de bestaande beveiligingsinfrastructuur niet voor hen is ontworpen.
Waarom bestaande oplossingen falen
Traditionele beveiligingsmodellen richten zich op authenticatie (het verifiëren van de identiteit), maar worstelen met autorisatie (het verlenen van de juiste toegang). Een AI-agent volledige toegang geven tot een systeem staat gelijk aan het overhandigen van een mens aan een sleutel tot het hele gebouw – veel meer dan nodig is voor een enkele taak.
Deze mismatch is vooral gevaarlijk omdat LLM’s gevoelig zijn voor valse positieven. Een beveiligingsscanner die legitieme code als kwaadaardig markeert, kan een hele ontwikkelingssessie laten ontsporen, waardoor precisie cruciaal is. Traditionele statische analysetools zijn niet geoptimaliseerd voor dit nauwkeurigheidsniveau.
De weg vooruit: identiteitsnormen voor werklasten
De industrie onderzoekt oplossingen als SPIFFE en SPIRE, standaarden die oorspronkelijk zijn ontworpen voor containeromgevingen, maar de aanpassing ervan is onvolmaakt. Het kernprincipe is het verlenen van gecontroleerde, in de tijd beperkte identiteiten. Net zoals een mens alleen toegang mag hebben tot specifieke kamers in een gebouw, mag een AI-agent alleen inloggegevens krijgen voor de uit te voeren taak, die na voltooiing verlopen.
Bedrijven moeten bijhouden welke agent heeft gehandeld, onder welke autoriteit en met welke inloggegevens. Dit vereist dat er van de grond af aan een nieuwe infrastructuur moet worden opgebouwd, in plaats van dat er op de mens gerichte beveiligingsmodellen moeten worden aangepast.
Het schaalprobleem: miljarden gebruikers veranderen alles
Op grote schaal worden zelfs ‘randgevallen’ reële bedreigingen. Stamos, voortbouwend op zijn ervaring als Facebook’s CISO, merkt op dat de omgang met 700.000 accountovernames per dag het concept van risico opnieuw vormgeeft. Identiteitsbeheer voor zowel mensen als AI-agenten zal een ‘gigantisch probleem’ zijn, dat consolidatie rond vertrouwde providers vereist.
Uiteindelijk overtreft de huidige haast om AI-agenten in te zetten de ontwikkeling van goede bestuurskaders. De oplossing bestaat niet uit propriëtaire, gepatenteerde tools (Stamos wijst ze ronduit af), maar eerder open standaarden zoals OIDC-extensies die prioriteit geven aan beveiliging zonder dat dit ten koste gaat van de bruikbaarheid. De toekomst van zakelijke AI hangt af van het oplossen van deze identiteitscrisis voordat deze leidt tot wijdverbreide inbreuken en onomkeerbare schade.





























