Imagem: BoliviaInteligente/Unsplash

O estudo “Cloud and Threat Report: 2026“, da Netskope, mostrou que as violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa dobraram em 2025. O estudo aponta que as empresas analisadas registraram, em média, 223 incidentes mensais relacionados à GenAI, mais que o dobro do observado no ano anterior.

O avanço da GenAI vem acompanhado de um crescimento expressivo na base de usuários e no volume de interações. Em um ano, o número de usuários aumentou 200% e o volume de prompts avançou 500%. Ainda assim, a taxa de crescimento das violações foi proporcionalmente menor do que a expansão do uso. Cerca de 50% das organizações ainda não contam com políticas efetivas de proteção de dados voltadas especificamente para aplicações de GenAI, o que amplia o risco de envio não detectado de informações sensíveis.

O levantamento também mostra uma mudança no padrão de uso: a proporção de usuários que utilizam exclusivamente versões pessoais de ferramentas de GenAI caiu de 78% para 47%, refletindo a maior oferta de versões corporativas. Mesmo assim, 90% das empresas já bloqueiam ativamente ao menos uma aplicação considerada de alto risco, indicando uma abordagem mais restritiva para mitigar exposições.

Pressão por evolução na segurança

Além da GenAI, aplicações pessoais de nuvem seguem como uma das principais fontes de vazamento de dados, concentrando 60% dos incidentes de ameaça interna, com exposição de informações reguladas, propriedade intelectual, código-fonte e credenciais. O phishing também permanece relevante, com 87 a cada 10 mil usuários clicando mensalmente em links suspeitos, apesar de uma leve redução em relação ao ano anterior.

Para Ray Canzanese, diretor do Netskope Threat Labs, a adoção da inteligência artificial generativa redefiniu o perfil de risco das organizações, tanto em escala quanto em complexidade. Segundo comunicado do executivo, esse cenário tem dificultado o acompanhamento das novas ameaças e pressionado práticas tradicionais de segurança. A resposta, de acordo com Canzanese, passa por uma postura mais consciente no uso da IA, pela evolução das políticas internas e pela ampliação do uso de ferramentas já disponíveis, como soluções de prevenção contra perda de dados (DLP), para equilibrar inovação e proteção da informação.

Sem comentários registrados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *