Por Fernando Galdino, diretor de portfólio da SEK.
A inteligência artificial deixou de ser apenas uma aliada da cibersegurança. Em 2025, ela também se tornou uma ferramenta poderosa nas mãos de criminosos, dando origem a uma nova geração de golpes digitais. Deepfakes quase perfeitos, ataques de phishing automatizados e sistemas que exploram falhas em tempo recorde já são realidade, e estão forçando empresas e pessoas a repensarem completamente sua segurança online.
Em um caso que ganhou repercussão internacional, um funcionário de uma empresa em Hong Kong foi enganado por criminosos que usaram deepfakes para simular uma videoconferência com o diretor financeiro da companhia. Convencido de que falava com seus superiores, ele autorizou a transferência de US$25 milhões. A fraude foi tão bem executada que incluiu a reprodução de vozes, rostos e até os gestos de outros membros da equipe, todos criados por inteligência artificial. É o tipo de golpe que parecia coisa de cinema — e que agora acontece de verdade.
Hoje, 78% das pessoas não conseguem distinguir um deepfake bem feito de uma gravação real. Ao mesmo tempo, o chamado “crime cibernético como serviço” está transformando o submundo digital: ferramentas de invasão, tutoriais e suporte técnico circulam em plataformas clandestinas, permitindo que qualquer pessoa execute ataques complexos com poucos cliques. O tempo médio para explorar uma falha caiu de 32 para apenas 5 dias — uma janela mínima para que empresas consigam reagir.
Manipulação digital, eleições e fraudes invisíveis
A inteligência artificial também tem sido usada para distorcer a percepção pública em grande escala. As campanhas de desinformação evoluíram de boatos nas redes para estratégias automatizadas, com vídeos, áudios e conteúdos criados para enganar até os mais atentos. Estima-se que, até 2028, metade das empresas adotará tecnologias específicas para lidar com esse tipo de manipulação — um salto frente à baixa adoção atual.
O impacto vai muito além do ambiente digital. Em contextos eleitorais, deepfakes têm sido usados para simular falas de políticos e sabotar campanhas. No mercado financeiro, há relatos de investidores que tomaram decisões com base em conteúdos falsos. E no universo corporativo, marcas se tornaram alvo de campanhas orquestradas com o objetivo de derrubar reputações em questão de horas.
Outro sinal claro de transformação é o avanço do chamado Ransomware 3.0. Em vez de sequestrar arquivos, os criminosos simplesmente roubam os dados e ameaçam divulgá-los publicamente. Como não há criptografia envolvida, os backups — antes considerados linha de defesa fundamental — se tornam ineficazes. Esse novo modelo já domina os ataques de ransomware e mira, principalmente, setores como saúde, finanças e infraestrutura crítica.
Frente a esse novo cenário, cresce a urgência de estratégias mais inteligentes de defesa. Autenticação multifator resistente a deepfakes, monitoramento contínuo com apoio de IA e treinamentos práticos sobre engenharia social são passos fundamentais. Mas o desafio não é só técnico. Ele exige uma nova cultura digital, em que até uma videoconferência precisa ser questionada — porque o que parece real pode não ser.
A inteligência artificial que ajuda a diagnosticar doenças também pode imitar pessoas com precisão assustadora. A mesma tecnologia que automatiza processos administrativos está sendo usada para enganar, fraudar e invadir. E, nesse jogo, quem ainda aposta apenas em antivírus e senhas fortes está vários passos atrás.
O cibercrime movido por IA não é mais um risco distante. Ele já está em operação, entre nós, muitas vezes de maneira silenciosa, moldando a forma como nos relacionamos com a tecnologia. A pergunta já não é se seremos alvos, mas quando. E, mais do que nunca, será preciso aprender a duvidar daquilo que parece verdadeiro demais.