A iminente crise de identidade da IA: por que a segurança empresarial está prestes a mudar

16

A rápida integração de agentes de IA nos fluxos de trabalho empresariais está a expor uma falha crítica: não existe nenhum sistema claro para gerir as suas identidades e direitos de acesso. À medida que estes agentes ganham a capacidade de iniciar sessão em sistemas, recuperar dados e executar ações em nome das empresas, a questão de quem é responsável – e como controlar esse acesso – permanece em grande parte sem resposta.

Esta não é uma preocupação teórica. Especialistas como Alex Stamos (Corridor) e Nancy Wang (1Password) alertam que os desenvolvedores já estão cometendo erros perigosos, como colar credenciais diretamente nos prompts de IA. Isso contorna os protocolos de segurança e cria uma vulnerabilidade enorme.

O problema: os agentes também têm segredos

A questão não é apenas impedir o acesso não autorizado; trata-se de responsabilidade. Ao contrário dos utilizadores humanos, os agentes de IA não pertencem inerentemente a uma organização ou indivíduo. Eles operam sob uma autoridade que determina o que podem fazer, mas rastrear essa autoridade está se mostrando difícil. Como explica Wang, as empresas estão observando um padrão familiar: os funcionários adotam ferramentas como assistentes de codificação de IA (Claude Code, Cursor) e depois as trazem para a empresa, replicando a adoção inicial de gerenciadores de senhas como o 1Password.

O problema não é apenas que os agentes tenham credenciais; é que a infraestrutura de segurança existente não foi projetada para eles.

Por que as soluções existentes falham

Os modelos de segurança tradicionais concentram-se na autenticação (verificação de identidade), mas enfrentam dificuldades com a autorização (concessão de acesso apropriado). Conceder a um agente de IA acesso total a um sistema equivale a entregar a um ser humano a chave de todo o edifício – muito mais do que o necessário para qualquer tarefa.

Essa incompatibilidade é especialmente perigosa porque os LLMs são propensos a falsos positivos. Um scanner de segurança que sinaliza código legítimo como malicioso pode inviabilizar toda uma sessão de desenvolvimento, tornando a precisão crucial. As ferramentas tradicionais de análise estática não são otimizadas para esse nível de precisão.

O caminho a seguir: padrões de identidade de carga de trabalho

A indústria está explorando soluções como SPIFFE e SPIRE, padrões originalmente projetados para ambientes em contêineres, mas adaptá-los é imperfeito. O princípio fundamental é conceder identidades com escopo definido, auditáveis ​​e com tempo limitado. Assim como um ser humano só deve ter acesso a salas específicas em um edifício, um agente de IA só deve receber credenciais para a tarefa em questão, expirando após a conclusão.

As empresas precisarão rastrear qual agente agiu, sob que autoridade e com quais credenciais. Isto requer a construção de novas infraestruturas a partir do zero, em vez de modernizar modelos de segurança centrados no ser humano.

O problema da escala: bilhões de usuários mudam tudo

Em grande escala, mesmo os “casos extremos” tornam-se ameaças reais. Stamos, valendo-se de sua experiência como CISO do Facebook, observa que lidar com 700 mil aquisições de contas por dia reformula o conceito de risco. O gerenciamento de identidade tanto para humanos quanto para agentes de IA será um “problema enorme”, exigindo consolidação em torno de provedores confiáveis.

Em última análise, a actual corrida para implantar agentes de IA está a ultrapassar o desenvolvimento de quadros de governação adequados. A solução não consiste em ferramentas proprietárias e patenteadas (Stamos as descarta completamente), mas sim em padrões abertos, como extensões OIDC, que priorizam a segurança sem sacrificar a usabilidade. O futuro da IA ​​empresarial depende da resolução desta crise de identidade antes que esta conduza a violações generalizadas e danos irreversíveis.