Por Cláudio Bannwart, country manager da Netskope no Brasil.
Durante anos, empresas ao redor do mundo adotaram soluções de Software como Serviço (SaaS) e aplicações em nuvem, atraídas pela promessa de agilidade, escalabilidade e gestão simplificada. No entanto, diante de preocupações legítimas com a segurança dos dados, muitas passaram a seguir na direção oposta para atender suas demandas de IA impulsionando as implementações locais (on-premises) dessas tecnologias.
Executar modelos de IA em infraestrutura local oferece às organizações maior controle sobre dados sensíveis, respondendo a preocupações com privacidade e soberania da informação. À primeira vista, essa abordagem parece resolver os problemas de segurança levantados por ferramentas de IA baseadas na nuvem. No entanto, ao analisarmos mais de perto essa tendência, fica claro que on-premises não significa automaticamente mais seguro. Assim como em qualquer implementação no local, a responsabilidade pela segurança recai inteiramente sobre a organização e seus usuários e, sem o envolvimento adequado das equipes de segurança, esses ambientes podem se tornar vetores significativos de risco.
Uma pesquisa recente do Netskope Threat Labs esclarece esses riscos. De acordo com o relatório, 34% das organizações no mundo já utilizam interfaces LLM on-premises, com destaque para o Ollama com 33%, seguido por LM Studio (0,9%) e Ramalama (0,6%). Além disso, 5,5% das organizações têm usuários executando agentes de IA criados com frameworks populares de agentes de IA em ambientes locais. Essas ferramentas são facilmente acessíveis aos usuários, permitindo a criação de aplicações e agentes personalizados, mas, ao contrário das plataformas SaaS gerenciadas, muitas vezes vêm com pouca ou nenhuma segurança embutida. Por exemplo, o Ollama não possui autenticação nem proteções padrão, exigindo a adição de camadas de segurança antes que seu uso seja considerado seguro.
Além disso, os modelos e ferramentas necessários para o desenvolvimento local de IA são frequentemente encontrados em marketplaces públicos, que disponibilizam recursos open source capazes de introduzir riscos significativos à cadeia de suprimentos. Atores maliciosos podem embutir códigos nocivos em modelos ou conjuntos de dados, ou explorar formatos vulneráveis como Python Pickles para executar comandos arbitrários e infiltrar a rede da organização. Já o Hugging Face, uma das plataformas mais populares para compartilhamento de modelos, dados e ferramentas de IA, é acessado por usuários em 67% das organizações, tornando-se um vetor crítico de atenção para as equipes de cibersegurança. Em outras palavras, qualquer colaborador com conhecimentos técnicos que baixe e execute um modelo não verificado pode estar abrindo as portas para um invasor.
Os próprios modelos ou agentes de IA também representam riscos à segurança da informação. A maioria requer acesso direto e interação com fontes de dados corporativos para treinamento ou execução de tarefas, e seus níveis de permissão devem ser restritos para evitar a exposição de dados sensíveis durante suas operações.
O problema é que essas implementações locais de IA muitas vezes ocorrem sem a visibilidade e o controle das equipes de TI e segurança cibernética. Não se pode proteger aquilo que não se conhece, e essas plataformas, modelos ou agentes locais podem ser utilizados sem as devidas barreiras de proteção.
À medida que mais pessoas conduzem esses experimentos, o fenômeno da “Shadow AI” e os riscos à segurança dos dados tendem a se intensificar, a menos que as equipes de segurança atuem de forma proativa para identificar e controlar esses usos.
A solução não está em proibir completamente o uso de IA on-premises. Na maioria dos casos, os colaboradores essas ferramentas com foco em produtividade, algo que, inclusive, está alinhado à estratégia de muitas organizações. O papel das equipes de segurança, portanto, deve ser adotar uma abordagem mais equilibrada de “capacitação segura”, garantindo que a segurança atue como facilitadora da inovação, e não como barreira. A prioridade deve ser eliminar a Shadow AI, identificando quem está usando essas ferramentas e de que forma. Isso exige capacidades de segurança que ofereçam visibilidade total e controle sobre tráfego, rede, usuários e dados, em ambientes de nuvem e on-premises. Com a visibilidade estabelecida, é possível implementar os controles adequados para assegurar o desenvolvimento e uso da IA de forma segura e responsável.
Existem diversas estruturas de segurança, como o projeto OWASP GenAI Security e a matriz ATLAS, que oferecem orientações valiosas para antecipar os riscos associados à inovação em IA. Essas estruturas abordam pontos críticos como injeção de comandos, vazamento de dados e ameaças à cadeia de suprimentos.
Por fim, é essencial reforçar a compreensão de que, embora a proposta da IA local seja promissora, a busca por inovação não pode comprometer a segurança. Ao identificar e proteger proativamente essas implementações, as organizações podem continuar inovando enquanto preservam seu bem mais valioso: os dados.
