Shadow AI: quando o maior risco de AI é o executivo

Mais de 80% usam AI não autorizada. O custo médio por incidente é US$ 4,63 MI. E quem mais usa sem controle são os executivos.

O ELEFANTE NA SALA × governança × shadow-ai × risco × fator-humano

O ESSENCIAL

Mais de 80% dos funcionários usam IA não autorizada — e o grupo com maior frequência são os executivos que deveriam definir a política. Shadow AI não é problema de comportamento: é falha de estratégia. Empresa que não oferece caminho legítimo cria a sombra que vai gerenciar como crise. Incidentes custam $4,63M em média. Se o C-level usa por fora e ninguém corrige, a política de governança não existe.

DECISÃO EM JOGO: Proibir uso não autorizado vs. construir trilho de governança que remove a necessidade da sombra

Mais de 80% dos funcionários usam ferramentas de AI não autorizadas no trabalho. Entre profissionais de segurança da informação, passa de 90%. E o grupo com maior frequência de uso regular são os executivos.

Números de novembro de 2025, pesquisa da UpGuard. Não é projeção. É fotografia. Não é tendência. É padrão operacional.

Shadow AI é o uso de inteligência artificial sem aprovação ou supervisão de TI. Primo do shadow IT — com uma diferença estrutural. Shadow IT armazenava dados fora do perímetro. Shadow AI envia dados para fora do perímetro. E não tem como pedir de volta.

A Samsung descobriu em março de 2023. Três engenheiros da divisão de semicondutores colaram código-fonte proprietário no ChatGPT em menos de 20 dias. Um pediu correção de bug. Outro, otimização de teste de chip. O terceiro converteu uma reunião inteira em ata. Dados confidenciais nos servidores da OpenAI, sem possibilidade de recuperação.

Resposta da Samsung: banir ChatGPT, desenvolver modelo interno, limitar prompts. Em 2025, readmitiu o uso com protocolos novos. O ciclo de pânico, proibição e readmissão controlada levou dois anos. A maioria das empresas não chegou nem no passo um.


O problema não é o funcionário. É a ausência de alternativa.

Pesquisa da BlackFog, janeiro de 2026: 63% dos funcionários consideram aceitável usar IA sem supervisão de TI quando a empresa não oferece ferramenta aprovada. Não é desobediência. É pragmatismo. O funcionário tem uma entrega, tem uma ferramenta que resolve em cinco minutos, e a empresa não ofereceu caminho legítimo.

Já vi isso acontecer. Empresa grande, ferramenta homologada, integrada ao ecossistema corporativo, com ok do CISO. No papel, resolvido. Na prática, áreas diferentes exigiam profundidades e capacidades distintas. A ferramenta homologada não cobria todos os casos de uso críticos — jurídico precisava de análise contratual mais profunda, aprendizagem precisava processar documentos longos de outro jeito.

No começo a resposta foi não. E o que aconteceu foi previsível: as pessoas usaram por fora, sem avisar ninguém. O "não" virou convite para a sombra.

A saída foi criar política de homologação por caso de uso. Não "qual ferramenta é aprovada" — mas "qual ferramenta é aprovada para quê." Cada caso passa por avaliação do CISO e da governança de dados. Processo vivo, não lista fixa. Funciona — se a empresa investe tempo em fazer a governança acompanhar a realidade. A maioria não investe.

Os números confirmam. Cisco, 2025: 46% das organizações já tiveram vazamento de dados internos via AI generativa — por prompts de funcionários, não por ataques externos. IBM, 2025: incidentes de shadow AI custam US$ 4,63 milhões, contra US$ 3,96 milhões em violações convencionais. A empresa média registra 223 episódios por mês de envio de dados sensíveis para ferramentas de IA. O dobro do ano anterior. O risco não é episódico. É sistêmico e crescente.


Aqui a conversa muda de TI para poder.

IA não é mais ferramenta de produtividade. É infraestrutura estratégica — no mesmo nível que ERP, email corporativo ou cloud. A diferença é que ERP teve 20 anos de governança acumulada. Email corporativo tem políticas maduras de retenção, compliance e auditoria. Cloud levou uma década para a maioria das empresas implementar controles adequados.

IA chegou em meses. E está sendo tratada como se fosse um aplicativo novo que o funcionário baixou — não como camada de infraestrutura que processa, interpreta e potencialmente retém dados críticos de negócio.

Enquanto a empresa não tratar IA como infraestrutura, vai tratar shadow IA como problema de comportamento. E problema de comportamento se resolve com treinamento e conscientização. Infraestrutura se resolve com orçamento, arquitetura e governança. Infraestrutura entra no CAPEX e no planejamento plurianual. Aplicativo entra no cartão corporativo. São conversas completamente diferentes.

O dado mais revelador da UpGuard não é o volume de uso não autorizado. É quem usa. Executivos lideram. O C-level que deveria definir política de governança é o mesmo que cola dados estratégicos no ChatGPT para preparar a apresentação do board.

Não é que o executivo ignora o risco. É pior. Sabe que existe, mas não entende a mecânica — que o dado colado vira input, que o prompt revela contexto estratégico, que não tem botão de desfazer. O risco é abstrato até virar incidente.

E quem decide comprar a licença enterprise — que resolveria 80% do shadow AI — é o mesmo executivo que teria que justificar o custo. A alternativa de não fazer nada não aparece no P&L. Não existe linha orçamentária para "dados que o jurídico colou no ChatGPT." O custo é invisível até virar incidente. E risco invisível raramente recebe orçamento. Quando vira, a narrativa é "o funcionário fez errado" — nunca "a empresa não ofereceu caminho seguro."

A terceira camada é Dunning-Kruger em posição de poder. A UpGuard encontrou correlação positiva entre confiança no próprio conhecimento de IA e uso de ferramentas não autorizadas. Quem acha que entende o suficiente para gerenciar o risco é exatamente quem mais usa sem autorização.

Sabe o bastante para usar. Não sabe o bastante para avaliar. E como está em posição de poder, ninguém corrige. O CISO não vai dizer pro CEO que ele está expondo dados da empresa.

Se o topo usa por fora, a política morre. Não importa o que o normativo diz. O comportamento da liderança é a política real da organização.


A resposta depende do contexto.

Em operação regulada — saúde, energia, financeiro — proibir funciona, com três condições. Política clara de uso, sem ambiguidade. Política de consequência proporcional: uso indevido leve, orientação. Médio, advertência. Grave, desligamento. E alternativa real — se proíbe a ferramenta pública mas não oferece substituto, a proibição é ficção.

Para dados sensíveis, a governança é de acesso, não de ferramenta. O usuário comum não tem credencial para o dataset completo. Precisa pedir à equipe de dados, que qualifica via governança se pode ceder e como. Isso já existe para bancos de dados tradicionais. Falta estender para o fluxo de IA.

Em ambiente menos regulado, homologação por caso de uso. Ferramenta X para uso Y, com regras claras sobre o que pode entrar como input. Processo vivo, com o CISO na mesa como viabilizador, não como bloqueador.

No Brasil, tem uma camada extra. Shadow IT aqui sempre foi a gambiarra corporativa — o amarradinho de arame que dá bypass no gargalo de uma TI mal gerida. Shadow AI é a mesma lógica com risco exponencialmente maior. A gambiarra que antes ficava numa planilha local agora sai do perímetro num prompt. O jeitinho aplicado à IA não gera improviso. Gera passivo.

Shadow AI não é falha de controle. É falha de estratégia. Ou a empresa internaliza AI como infraestrutura — com orçamento, trilho e exemplo da liderança — ou vai aprender governança pelo caminho mais caro: o incidente.

Fontes: UpGuard, Shadow AI Report, nov 2025  ·  BlackFog / Sapio Research, jan 2026  ·  Cisco, 2025 Data Privacy Study  ·  IBM, Cost of a Data Breach 2025  ·  Samsung / The Economist, mar 2023  ·  ISACA, The Rise of Shadow AI, 2025