RSM - Revista Sociedade Militar
  • AO VIVO
  • Página Inicial
  • Últimas Notícias
  • Forças Armadas
  • Defesa e Segurança
  • Setores Estratégicos
  • Concursos e Cursos
  • Gente e Cultura
RSM - Revista Sociedade Militar
Nenhum resultado
Ver todos os resultados
Início Setores Estratégicos Ciência e Tecnologia

Nova arma invisível das guerras modernas: inteligência artificial cria vozes falsas, manipula mensagens e engana até militares com ataques impossíveis de detectar

Phishing automatizado, deepfakes de voz e vídeo, golpes multicanal e ferramentas baseadas em IA estão redefinindo a guerra cibernética. Especialistas alertam: o próximo grande ataque pode não vir de um hacker humano, mas de uma máquina treinada para enganar.

por Jefferson S
15/04/2025
A A
Soldado militar observado por inteligência artificial com rosto digital sorridente em ambiente escuro de guerra cibernética

“A guerra invisível já começou: inteligência artificial encara os bastidores da segurança militar com ameaças que não usam armas, mas algoritmos.”

Enquanto governos, forças armadas e empresas de segurança reforçam seus sistemas de proteção digital, uma nova ameaça emerge silenciosamente: a utilização de inteligência artificial generativa para automatizar e sofisticar ataques cibernéticos. Essa nova realidade está se consolidando rapidamente em escala global, e, segundo relatório do Fórum Econômico Mundial, representa hoje um dos maiores riscos para a segurança digital de estados e organizações no mundo inteiro.

A chamada IA generativa é a mesma tecnologia que alimenta ferramentas como o ChatGPT, DALL·E, Gemini e outras, mas agora começa a ser utilizada por grupos criminosos, agentes estatais hostis e mercenários digitais para criar conteúdos falsos, manipular pessoas e automatizar ações que antes exigiam engenheiros altamente treinados. Em outras palavras: a inteligência artificial está se tornando uma arma de guerra cibernética.

A próxima geração do phishing: ataques com rosto, voz e texto perfeitos

Historicamente, o phishing – a prática de enviar e-mails falsos para enganar usuários e roubar senhas – era facilmente identificável por seus erros de português, imagens amadoras ou domínios duvidosos. Isso mudou radicalmente.

Com IA generativa, é possível criar e-mails idênticos aos de empresas reais, com linguagem fluida, sem erros gramaticais e até adaptados ao perfil psicológico da vítima, usando dados vazados de redes sociais. É o que explica o relatório Global Cybersecurity Outlook 2025, divulgado pelo Fórum Econômico Mundial: “Organizações relatam que os adversários estão utilizando IA para personalizar ataques de phishing com um nível de detalhe sem precedentes.”

Ferramentas como WormGPT e FraudGPT – versões maliciosas de modelos de linguagem – já são comercializadas no submundo da internet e permitem que criminosos criem campanhas de ataque automatizadas com um clique.

Golpes com deepfakes: quando a voz do chefe é usada para enganar o funcionário

Em 2024, uma empresa de engenharia no Reino Unido sofreu um prejuízo de mais de US$ 25 milhões após um de seus executivos ser falsamente “imitado” por um deepfake de voz. Um funcionário recebeu uma ligação, reconheceu a voz de seu superior imediato, e atendeu à solicitação de uma transferência bancária urgente. Tudo parecia legítimo – exceto pelo fato de que o verdadeiro executivo estava em outra parte do mundo.

Esse tipo de golpe, conhecido como vishing (voice phishing), vem sendo potencializado pelo uso de IA generativa. Segundo matéria do World Economic Forum, os deepfakes de voz estão cada vez mais indistinguíveis da realidade, exigindo uma nova postura por parte de empresas, militares e instituições públicas. As ameaças não se limitam a fraudes financeiras: “imaginem um áudio falso atribuído a um comandante militar, emitindo uma ordem de movimentação de tropas ou de ataque. O potencial de dano é incalculável”, alerta o documento.

Ataques multicanal: de e-mails a mensagens no Teams

Uma das grandes novidades trazidas pela IA generativa é a capacidade de executar ataques multicanal, nos quais o mesmo golpe é replicado por diferentes meios simultaneamente: e-mails, mensagens de WhatsApp, Slack, Microsoft Teams, redes sociais e até chamadas telefônicas com vozes simuladas. Isso cria um senso de urgência e realidade que confunde até mesmo os usuários mais atentos.

O relatório Phishing Trends Report 2025, da empresa de segurança Hoxhunt, aponta que ataques com deepfakes aumentaram 15% no último ano.

O perigo da IA como “serviço para criminosos”

Tal como o modelo de “Software as a Service” (SaaS) revolucionou o mercado de tecnologia, o crime digital está se transformando em serviço. Plataformas clandestinas oferecem modelos de IA prontos para realizar ações ilícitas, desde escrever e-mails de extorsão até clonar vozes e automatizar fraudes.

O conceito de Ransomware as a Service (RaaS), que já existe há alguns anos, agora evolui para IA as a Weapon, permitindo que qualquer pessoa, sem conhecimento técnico, utilize ferramentas poderosas para aplicar golpes.

As implicações para a segurança nacional

Para especialistas em defesa, essa nova classe de ameaças representa um divisor de águas na guerra da informação. A facilidade com que deepfakes e mensagens fabricadas podem ser espalhadas abre brechas para operações de guerra psicológica, manipulação de opinião pública, sabotagem econômica e desestabilização de governos.

A combinação de IA com técnicas clássicas de guerra híbrida é hoje uma das maiores preocupações entre comandos militares no Ocidente e na Ásia. O que antes era possível apenas para grandes potências, agora está ao alcance de qualquer ator mal-intencionado com acesso à dark web.

E o Brasil?

No Brasil, ainda são raros os registros de ataques com uso explícito de IA generativa. Contudo, as condições para sua proliferação já existem: vulnerabilidades em sistemas públicos, escassez de especialistas em cibersegurança, e uma cultura digital ainda carente de educação sobre ameaças digitais avançadas.

Especialistas alertam que é uma questão de tempo até que golpes com deepfakes e phishing por IA se tornem comuns por aqui. Estar preparado significa investir em cibereducação, inteligência artificial defensiva e protocolos de verificação multicanal.

Como se proteger?

Diante desse novo cenário, organizações e usuários devem adotar práticas rígidas de verificação e segurança:

  • Desconfie de pedidos urgentes por canais digitais, mesmo que pareçam legítimos.
  • Implemente autenticação em dois fatores sempre que possível.
  • Treine equipes para identificar sinais de deepfakes e mensagens automatizadas.
  • Adote ferramentas de detecção de IA generativa e monitore comunicações críticas.

A cibersegurança defensiva também precisa incorporar inteligência artificial para estar à altura das ameaças. Plataformas como o novo Google Unified Security apontam nessa direção, prometendo unir IA, automação e inteligência de ameaças em tempo real.

Conclusão

O uso de IA generativa por cibercriminosos é um alerta vermelho para todos os setores estratégicos – de empresas privadas à defesa nacional. O que está em jogo não é apenas a segurança digital, mas a confiança nas comunicações humanas e nos sistemas que sustentam a sociedade moderna.

Na nova era da guerra invisível, as batalhas não são travadas apenas com armas, mas com algoritmos, vozes clonadas e linhas de código que ninguém vê.

Ver Comentários

Artigos recentes

  • Além das motos e carros: Honda surpreende com motores usados por militares, geradores que salvam vidas e tecnologias que operam onde tudo falha 09/05/2025
  • Trump institui ‘Dia da Vitória’ em 8 de maio e garante que triunfo na Segunda Guerra foi graças aos EUA: “Goste ou não, fomos nós!” 08/05/2025
  • Militares veem a História como meio de aplicar estratégias aos desafios atuais — “É necessário entrar nas Academias e fazer uma mudança no ensino militar”, diz jornalista 08/05/2025
  • Exército aumenta número de generais: de 2019 a 2025 a força ganhou mais 13 cadeiras 08/05/2025
  • GUERRA em MINUTOS! Conheça a Guerra Anglo-Zanzibari, a guerra mais curta da história, durou menos de 45 min, mas mudou TUDO! 08/05/2025
  • Concurso EsPCEx 2025 teve as inscrições PRORROGADAS, 440 vagas para pessoas com ensino médio 08/05/2025
  • A motocicleta militar com tração nas duas rodas que incrementa a mobilidade tática para operações especiais nos EUA 08/05/2025
  • Apesar de crise orçamentaria e falta de recursos, Lula quer doar 2 aeronaves da Marinha ao Uruguai: PL que autoriza doação de Helicópteros Bell Jet Ranger III(IH-6B) é enviado ao congresso 08/05/2025
  • Concurso EsPCEx encerra inscrições nesta semana! Fique atento ao prazo e não perca a chance de se tornar um militar de carreira 08/05/2025
  • Senado aprova aumento de cotas para negros em concursos públicos: saiba o que muda a partir de agora 08/05/2025
  • Sobre nós
  • Contato
  • Anuncie
  • Política de Privacidade e Cookies
- Informações sobre artigos, denúncias, e erros: WhatsApp 21 96455 7653 não atendemos ligação.(Só whatsapp / texto) - Contato comercial/publicidade/urgências: 21 98106 2723 e [email protected]
Nenhum resultado
Ver todos os resultados
  • Conteúdo Membros
  • Últimas Notícias
  • Forças Armadas
  • Concursos e Cursos
  • Defesa e Segurança
  • Setores Estratégicos
  • Gente e Cultura
  • Autores
    • Editor / Robson
    • JB REIS
    • Jefferson
    • Raquel D´Ornellas
    • Rafael Cavacchini
    • Anna Munhoz
    • Campos
    • Sérvulo Pimentel
    • Noel Budeguer
    • Rodrigues
    • Colaboradores
  • Sobre nós
  • Anuncie
  • Contato
  • Entrar

Revista Sociedade Militar, todos os direitos reservados.