Uma pesquisa publicada em 7 de abril pela OutSystems com quase 1.900 líderes de TI globais confirmou o que vemos nos projetos que conduzimos por aqui: agentic AI chegou ao mainstream enterprise. Quase todas as organizações já têm agentes rodando em produção. O problema é que 94% delas relatam que esses agentes estão criando caos.
Caos não é metáfora. É AI sprawl — proliferação descontrolada de agentes sem inventário centralizado, sem controle de acesso adequado, sem auditoria de ação. É um time de dados criando agentes via API sem que TI saiba. É um fornecedor de automação conectado ao CRM com acesso mais amplo do que qualquer humano teria. É um modelo tomando decisões que afetam clientes sem log rastreável.
O Gartner vai além: prevê que mais de 40% dos projetos de agentic AI serão cancelados até 2027. Não por falha técnica. Por falta de governança.
Existe um grupo de 6% que não caiu nessa armadilha. Nada é mais importante do que falar e entender o que eles fazem de diferente.
Por que a governança sempre chega tarde
Existe uma dinâmica previsível na adoção de tecnologias enterprise. A pressão para deployar é imediata. A pressão para governar vem depois — e geralmente depois de um incidente.
Com agentes de AI, o ciclo está mais comprimido do que com qualquer tecnologia anterior. Um desenvolvedor com acesso a uma API consegue criar um agente funcional em horas, e não precisa de aprovação de arquitetura. Não precisa de revisão de segurança. O agente está em produção antes de qualquer discussão sobre controle.
Multiplique isso por dezenas de times, some a pressão de board perguntando “quando vamos ter agentes?” e adicione vendors que disponibilizam capacidades agentic dentro de ferramentas que as equipes já usam — Copilot, Salesforce, ServiceNow. O resultado é uma organização com dezenas ou centenas de agentes em produção que nenhum time de TI consegue mapear completamente.
É esse o caos que 94% das empresas estão descrevendo.
O que os 6% fazem antes do primeiro deploy
As empresas que governam agentic AI com eficácia não têm mais recursos nem mais tecnologia, elas tem disciplina em cinco áreas específicas:
- Inventário antes de qualquer deploy
A primeira pergunta das organizações com governança madura não é “o que esse agente vai fazer?” — é “onde estão rodando todos os nossos agentes hoje?”.
Inventário de agentes não é um projeto de compliance. É o pré-requisito de qualquer política de controle. Sem mapa do que existe, qualquer framework de governança é inútil — você está regulando o que conhece e ignorando o que não sabe que existe.
O inventário precisa responder três perguntas mínimas: quais agentes existem, o que cada um acessa, e quem autorizou o deploy. Parece simples, mas a maioria das organizações não consegue responder as três questões sobre todos os agentes que operam hoje.
- Privilégio mínimo aplicado desde o início
Um agente de AI não precisa de acesso total ao sistema, precisa apenas do que a tarefa específica exige — e nada mais.
O conceito de least privilege é padrão em segurança de redes há décadas, mas a maioria das implementações de agentic AI ignora isso completamente. O agente recebe credenciais de serviço com escopo amplo porque é mais fácil de configurar. O resultado é um agente com acesso a dados de clientes, contratos e sistemas financeiros para executar uma tarefa que precisaria apenas de leitura em uma tabela específica.
As empresas do grupo dos 6% definem escopo de acesso antes do deploy, onde cada agente tem permissões mínimas documentadas, não acesso irrestrito herdado do ambiente de desenvolvimento.
- Auditoria de ação, não apenas de output
Um agente pode produzir o resultado correto pelo caminho errado, e você só vai descobrir isso quando virar um problema.
A diferença entre governança madura e wishful thinking está nos logs. Organizações com controle efetivo não registram apenas o output do agente — registram cada ação tomada no caminho, qual ferramenta foi chamada, qual dado foi acessado, qual decisão foi tomada em cada etapa.
Para ambientes regulados — bancário, saúde, energia — isso não é uma prática recomendada, é um requisito de compliance. Sem log de ação rastreável, qualquer auditoria se torna impossível, e sem rastreabilidade, você não está governando agentes: você está torcendo para que funcionem corretamente.
- Humano no loop para decisões de impacto
Automatizar tudo que pode ser automatizado é o objetivo de longo prazo. Não é onde você começa.
As organizações que acertaram definiram explicitamente dois critérios antes do primeiro deploy: o que pode ser automatizado sem supervisão humana, e o que exige aprovação ou revisão antes de executar.
A linha entre os dois não pode ser tácita, precisa ser documentada, revisada por compliance e incorporada ao fluxo do agente. Decisões que afetam contratos, dados sensíveis de clientes, ou ações irreversíveis exigem um ponto de escalonamento humano — não como fallback de emergência, mas como componente projetado.
Automatizar com supervisão estruturada não é timidez. É a diferença entre um piloto automático que o piloto pode retomar e um que ninguém sabe como desligar.
- Controle centralizado de modelos e fornecedores
Shadow AI é a causa número um do caos de agentic AI que os 94% relatam.
Shadow AI acontece quando departamentos adquirem capacidades de AI — APIs, plugins, integrações — sem que TI tenha visibilidade ou controle. Marketing usa um agente de geração de conteúdo, financeiro conecta um agente ao ERP, operações cria automações via plataforma low-code com modelos de terceiros. Cada um desses movimentos parece pequeno e inofensivo, mas o conjunto cria uma superfície de risco que nenhum time de segurança consegue mapear.
As empresas com governança eficaz têm um ponto central de controle: quais modelos são aprovados para uso, quais fornecedores têm contrato com cláusulas de segurança e compliance adequadas, e quais dados podem sair do perímetro corporativo. Esse catálogo existe antes do primeiro agente entrar em produção — não como resposta a um incidente.
O custo de esperar
O argumento mais comum é: “vamos estruturar a governança quando escalarmos”.
Mas esse argumento ignora como a proliferação de agentes funciona na prática. Você não escala e então governa, você chega num ponto onde governar o que já existe é mais caro e mais arriscado do que construir do zero — porque há dependências, há processos que já funcionam sobre agentes sem controle, há equipes que adaptaram seus fluxos de trabalho ao comportamento específico de agentes mal configurados.
A janela para estruturar governança antes do caos é curta, e ela se fecha silenciosamente — não com um incidente dramático, mas com a gradual percepção de que você não sabe mais o que os agentes da sua organização estão fazendo.
O Gartner previu 40% de cancelamentos de projetos agentic até 2027. Cancelamento não é o pior cenário. O pior cenário é manter em produção agentes que você não consegue auditar, em nome de capacidades que você não consegue medir.
Uma pergunta direta
Se eu perguntasse agora quantos agentes de AI a sua organização tem rodando em produção — incluindo os que foram criados por times de negócio sem passar por TI — você conseguiria responder com precisão?
Se a resposta for não, você está mais próximo dos 94% do que dos 6%.
As práticas que discutimos não são complexas de implementar, são disciplina de engenharia aplicada a um domínio novo. E a diferença entre estar nos 6% ou nos 94% vai depender de quando você começar.