Enquanto governos, forças armadas e empresas de segurança reforçam seus sistemas de proteção digital, uma nova ameaça emerge silenciosamente: a utilização de inteligência artificial generativa para automatizar e sofisticar ataques cibernéticos. Essa nova realidade está se consolidando rapidamente em escala global, e, segundo relatório do Fórum Econômico Mundial, representa hoje um dos maiores riscos para a segurança digital de estados e organizações no mundo inteiro.
A chamada IA generativa é a mesma tecnologia que alimenta ferramentas como o ChatGPT, DALL·E, Gemini e outras, mas agora começa a ser utilizada por grupos criminosos, agentes estatais hostis e mercenários digitais para criar conteúdos falsos, manipular pessoas e automatizar ações que antes exigiam engenheiros altamente treinados. Em outras palavras: a inteligência artificial está se tornando uma arma de guerra cibernética.
A próxima geração do phishing: ataques com rosto, voz e texto perfeitos
Historicamente, o phishing – a prática de enviar e-mails falsos para enganar usuários e roubar senhas – era facilmente identificável por seus erros de português, imagens amadoras ou domínios duvidosos. Isso mudou radicalmente.
Com IA generativa, é possível criar e-mails idênticos aos de empresas reais, com linguagem fluida, sem erros gramaticais e até adaptados ao perfil psicológico da vítima, usando dados vazados de redes sociais. É o que explica o relatório Global Cybersecurity Outlook 2025, divulgado pelo Fórum Econômico Mundial: “Organizações relatam que os adversários estão utilizando IA para personalizar ataques de phishing com um nível de detalhe sem precedentes.”
Ferramentas como WormGPT e FraudGPT – versões maliciosas de modelos de linguagem – já são comercializadas no submundo da internet e permitem que criminosos criem campanhas de ataque automatizadas com um clique.
Golpes com deepfakes: quando a voz do chefe é usada para enganar o funcionário
Em 2024, uma empresa de engenharia no Reino Unido sofreu um prejuízo de mais de US$ 25 milhões após um de seus executivos ser falsamente “imitado” por um deepfake de voz. Um funcionário recebeu uma ligação, reconheceu a voz de seu superior imediato, e atendeu à solicitação de uma transferência bancária urgente. Tudo parecia legítimo – exceto pelo fato de que o verdadeiro executivo estava em outra parte do mundo.
Esse tipo de golpe, conhecido como vishing (voice phishing), vem sendo potencializado pelo uso de IA generativa. Segundo matéria do World Economic Forum, os deepfakes de voz estão cada vez mais indistinguíveis da realidade, exigindo uma nova postura por parte de empresas, militares e instituições públicas. As ameaças não se limitam a fraudes financeiras: “imaginem um áudio falso atribuído a um comandante militar, emitindo uma ordem de movimentação de tropas ou de ataque. O potencial de dano é incalculável”, alerta o documento.
Ataques multicanal: de e-mails a mensagens no Teams
Uma das grandes novidades trazidas pela IA generativa é a capacidade de executar ataques multicanal, nos quais o mesmo golpe é replicado por diferentes meios simultaneamente: e-mails, mensagens de WhatsApp, Slack, Microsoft Teams, redes sociais e até chamadas telefônicas com vozes simuladas. Isso cria um senso de urgência e realidade que confunde até mesmo os usuários mais atentos.
O relatório Phishing Trends Report 2025, da empresa de segurança Hoxhunt, aponta que ataques com deepfakes aumentaram 15% no último ano.
O perigo da IA como “serviço para criminosos”
Tal como o modelo de “Software as a Service” (SaaS) revolucionou o mercado de tecnologia, o crime digital está se transformando em serviço. Plataformas clandestinas oferecem modelos de IA prontos para realizar ações ilícitas, desde escrever e-mails de extorsão até clonar vozes e automatizar fraudes.
O conceito de Ransomware as a Service (RaaS), que já existe há alguns anos, agora evolui para IA as a Weapon, permitindo que qualquer pessoa, sem conhecimento técnico, utilize ferramentas poderosas para aplicar golpes.
As implicações para a segurança nacional
Para especialistas em defesa, essa nova classe de ameaças representa um divisor de águas na guerra da informação. A facilidade com que deepfakes e mensagens fabricadas podem ser espalhadas abre brechas para operações de guerra psicológica, manipulação de opinião pública, sabotagem econômica e desestabilização de governos.
A combinação de IA com técnicas clássicas de guerra híbrida é hoje uma das maiores preocupações entre comandos militares no Ocidente e na Ásia. O que antes era possível apenas para grandes potências, agora está ao alcance de qualquer ator mal-intencionado com acesso à dark web.
E o Brasil?
No Brasil, ainda são raros os registros de ataques com uso explícito de IA generativa. Contudo, as condições para sua proliferação já existem: vulnerabilidades em sistemas públicos, escassez de especialistas em cibersegurança, e uma cultura digital ainda carente de educação sobre ameaças digitais avançadas.
Especialistas alertam que é uma questão de tempo até que golpes com deepfakes e phishing por IA se tornem comuns por aqui. Estar preparado significa investir em cibereducação, inteligência artificial defensiva e protocolos de verificação multicanal.
Como se proteger?
Diante desse novo cenário, organizações e usuários devem adotar práticas rígidas de verificação e segurança:
- Desconfie de pedidos urgentes por canais digitais, mesmo que pareçam legítimos.
- Implemente autenticação em dois fatores sempre que possível.
- Treine equipes para identificar sinais de deepfakes e mensagens automatizadas.
- Adote ferramentas de detecção de IA generativa e monitore comunicações críticas.
A cibersegurança defensiva também precisa incorporar inteligência artificial para estar à altura das ameaças. Plataformas como o novo Google Unified Security apontam nessa direção, prometendo unir IA, automação e inteligência de ameaças em tempo real.
Conclusão
O uso de IA generativa por cibercriminosos é um alerta vermelho para todos os setores estratégicos – de empresas privadas à defesa nacional. O que está em jogo não é apenas a segurança digital, mas a confiança nas comunicações humanas e nos sistemas que sustentam a sociedade moderna.
Na nova era da guerra invisível, as batalhas não são travadas apenas com armas, mas com algoritmos, vozes clonadas e linhas de código que ninguém vê.