94% das Empresas Perderam o Controle dos seus Agentes de AI.

12 de abril de 2026
12 de abril de 2026 whiendlmayer

94% das Empresas Perderam o Controle dos seus Agentes de AI.

Veja o que os 6% fazem de diferente.

Uma pesquisa publicada em 7 de abril pela OutSystems com quase 1.900 líderes de TI globais confirmou o que vemos nos projetos que conduzimos por aqui: agentic AI chegou ao mainstream enterprise. Quase todas as organizações já têm agentes rodando em produção. O problema é que 94% delas relatam que esses agentes estão criando caos.

Caos não é metáfora. É AI sprawl — proliferação descontrolada de agentes sem inventário centralizado, sem controle de acesso adequado, sem auditoria de ação. É um time de dados criando agentes via API sem que TI saiba. É um fornecedor de automação conectado ao CRM com acesso mais amplo do que qualquer humano teria. É um modelo tomando decisões que afetam clientes sem log rastreável.

O Gartner vai além: prevê que mais de 40% dos projetos de agentic AI serão cancelados até 2027. Não por falha técnica. Por falta de governança.

Existe um grupo de 6% que não caiu nessa armadilha. Nada é mais importante do que falar e entender o que eles fazem de diferente.

Por que a governança sempre chega tarde

Existe uma dinâmica previsível na adoção de tecnologias enterprise. A pressão para deployar é imediata. A pressão para governar vem depois — e geralmente depois de um incidente.

Com agentes de AI, o ciclo está mais comprimido do que com qualquer tecnologia anterior. Um desenvolvedor com acesso a uma API consegue criar um agente funcional em horas, e não precisa de aprovação de arquitetura. Não precisa de revisão de segurança. O agente está em produção antes de qualquer discussão sobre controle.

Multiplique isso por dezenas de times, some a pressão de board perguntando “quando vamos ter agentes?” e adicione vendors que disponibilizam capacidades agentic dentro de ferramentas que as equipes já usam — Copilot, Salesforce, ServiceNow. O resultado é uma organização com dezenas ou centenas de agentes em produção que nenhum time de TI consegue mapear completamente.

É esse o caos que 94% das empresas estão descrevendo.

O que os 6% fazem antes do primeiro deploy

As empresas que governam agentic AI com eficácia não têm mais recursos nem mais tecnologia, elas tem disciplina em cinco áreas específicas:

  1. Inventário antes de qualquer deploy

A primeira pergunta das organizações com governança madura não é “o que esse agente vai fazer?” — é “onde estão rodando todos os nossos agentes hoje?”.

Inventário de agentes não é um projeto de compliance. É o pré-requisito de qualquer política de controle. Sem mapa do que existe, qualquer framework de governança é inútil — você está regulando o que conhece e ignorando o que não sabe que existe.

O inventário precisa responder três perguntas mínimas: quais agentes existem, o que cada um acessa, e quem autorizou o deploy. Parece simples, mas a maioria das organizações não consegue responder as três questões sobre todos os agentes que operam hoje.

  1. Privilégio mínimo aplicado desde o início

Um agente de AI não precisa de acesso total ao sistema, precisa apenas do que a tarefa específica exige — e nada mais.

O conceito de least privilege é padrão em segurança de redes há décadas, mas a maioria das implementações de agentic AI ignora isso completamente. O agente recebe credenciais de serviço com escopo amplo porque é mais fácil de configurar. O resultado é um agente com acesso a dados de clientes, contratos e sistemas financeiros para executar uma tarefa que precisaria apenas de leitura em uma tabela específica.

As empresas do grupo dos 6% definem escopo de acesso antes do deploy, onde cada agente tem permissões mínimas documentadas, não acesso irrestrito herdado do ambiente de desenvolvimento.

  1. Auditoria de ação, não apenas de output

Um agente pode produzir o resultado correto pelo caminho errado, e você só vai descobrir isso quando virar um problema.

A diferença entre governança madura e wishful thinking está nos logs. Organizações com controle efetivo não registram apenas o output do agente — registram cada ação tomada no caminho, qual ferramenta foi chamada, qual dado foi acessado, qual decisão foi tomada em cada etapa.

Para ambientes regulados — bancário, saúde, energia — isso não é uma prática recomendada, é um requisito de compliance. Sem log de ação rastreável, qualquer auditoria se torna impossível, e sem rastreabilidade, você não está governando agentes: você está torcendo para que funcionem corretamente.

  1. Humano no loop para decisões de impacto

Automatizar tudo que pode ser automatizado é o objetivo de longo prazo. Não é onde você começa.

As organizações que acertaram definiram explicitamente dois critérios antes do primeiro deploy: o que pode ser automatizado sem supervisão humana, e o que exige aprovação ou revisão antes de executar.

A linha entre os dois não pode ser tácita, precisa ser documentada, revisada por compliance e incorporada ao fluxo do agente. Decisões que afetam contratos, dados sensíveis de clientes, ou ações irreversíveis exigem um ponto de escalonamento humano — não como fallback de emergência, mas como componente projetado.

Automatizar com supervisão estruturada não é timidez. É a diferença entre um piloto automático que o piloto pode retomar e um que ninguém sabe como desligar.

  1. Controle centralizado de modelos e fornecedores

Shadow AI é a causa número um do caos de agentic AI que os 94% relatam.

Shadow AI acontece quando departamentos adquirem capacidades de AI — APIs, plugins, integrações — sem que TI tenha visibilidade ou controle. Marketing usa um agente de geração de conteúdo, financeiro conecta um agente ao ERP, operações cria automações via plataforma low-code com modelos de terceiros. Cada um desses movimentos parece pequeno e inofensivo, mas o conjunto cria uma superfície de risco que nenhum time de segurança consegue mapear.

As empresas com governança eficaz têm um ponto central de controle: quais modelos são aprovados para uso, quais fornecedores têm contrato com cláusulas de segurança e compliance adequadas, e quais dados podem sair do perímetro corporativo. Esse catálogo existe antes do primeiro agente entrar em produção — não como resposta a um incidente.

O custo de esperar

O argumento mais comum é: “vamos estruturar a governança quando escalarmos”.

Mas esse argumento ignora como a proliferação de agentes funciona na prática. Você não escala e então governa, você chega num ponto onde governar o que já existe é mais caro e mais arriscado do que construir do zero — porque há dependências, há processos que já funcionam sobre agentes sem controle, há equipes que adaptaram seus fluxos de trabalho ao comportamento específico de agentes mal configurados.

A janela para estruturar governança antes do caos é curta, e ela se fecha silenciosamente — não com um incidente dramático, mas com a gradual percepção de que você não sabe mais o que os agentes da sua organização estão fazendo.

O Gartner previu 40% de cancelamentos de projetos agentic até 2027. Cancelamento não é o pior cenário. O pior cenário é manter em produção agentes que você não consegue auditar, em nome de capacidades que você não consegue medir.

 

Uma pergunta direta

Se eu perguntasse agora quantos agentes de AI a sua organização tem rodando em produção — incluindo os que foram criados por times de negócio sem passar por TI — você conseguiria responder com precisão?

Se a resposta for não, você está mais próximo dos 94% do que dos 6%.

As práticas que discutimos não são complexas de implementar, são disciplina de engenharia aplicada a um domínio novo. E a diferença entre estar nos 6% ou nos 94% vai depender de quando você começar.