O cibercrime atravessa um ponto de inflexão histórico. O que começou, nos anos 1990, como ataques manuais e oportunistas evoluiu para ecossistemas organizados de malware, modelos de crime-as-a-service e, mais recentemente, ataques sofisticados à cadeia de suprimentos.
Hoje, uma quinta onda se consolida, definida pela instrumentalização sistemática da inteligência artificial.

Segundo o relatório Weaponized AI, do Group-IB, a inteligência artificial deixou de atuar apenas como um acelerador de técnicas existentes e passou a industrializar o crime digital, transformando habilidades tradicionalmente humanas — como persuasão, falsificação de identidade e desenvolvimento de malware — em serviços escaláveis, automatizados e amplamente comercializados na economia subterrânea.
Entre 2020 e 2025, o monitoramento contínuo de fóruns clandestinos conduzido pelo Group-IB identificou um crescimento de 371% nas discussões relacionadas ao uso criminoso de modelos de linguagem, evidenciando uma mudança estrutural no perfil das ameaças.
A industrialização do crime digital impulsionada por IA
A principal ruptura observada pelo estudo não está apenas na sofisticação técnica dos ataques, mas na forma como o cibercrime passou a operar com lógica industrial. Ferramentas baseadas em inteligência artificial são hoje oferecidas no mercado clandestino sob modelos de assinatura, com suporte técnico, atualizações frequentes e rápida iteração, espelhando práticas comuns a empresas legítimas de software como serviço.
Esse modelo reduziu drasticamente a barreira de entrada para atividades criminosas. Em 2024, mais de 60% das novas ferramentas identificadas pelo Group-IB já incorporavam algum nível de automação baseada em IA, permitindo que atacantes com pouca experiência conduzissem campanhas complexas de fraude, phishing e malware com alcance global. A consequência direta é o aumento da escala e da frequência dos ataques, pressionando organizações e governos a reavaliar seus modelos tradicionais de defesa.
Dark LLMs e a monetização da linguagem como arma
Um dos elementos mais críticos destacados no relatório é a consolidação dos chamados Dark LLMs. Esses modelos de linguagem, desenvolvidos ou ajustados especificamente para uso criminoso, operam sem restrições éticas ou mecanismos de contenção. Seu uso vai desde a geração automatizada de mensagens de phishing altamente personalizadas até a criação sob demanda de scripts de malware e conteúdos de engenharia social em múltiplos idiomas.
Em 2025, mais de 40% das ofertas de ferramentas baseadas em inteligência artificial nos marketplaces clandestinos monitorados estavam diretamente relacionadas a LLMs criminosos. Campanhas de phishing assistidas por esses modelos apresentaram taxas de engajamento até três vezes superiores às campanhas tradicionais, demonstrando como a linguagem se tornou um vetor estratégico de ataque. Nesse contexto, a capacidade de persuadir, enganar e manipular deixou de ser um diferencial humano para se tornar um recurso computacional amplamente disponível.
Deepfakes, fraude financeira e a erosão da confiança digital
O relatório também evidencia o crescimento acelerado do uso de deepfakes em operações de fraude financeira. Apenas em 2024, a oferta de serviços de Deepfake-as-a-Service no mercado clandestino cresceu 233%, incluindo tecnologias de clonagem de voz em tempo real, geração de vídeo com sincronização labial e simulação de interações corporativas.
Os impactos financeiros associados a esse tipo de fraude são significativamente maiores. Em casos analisados pelo Group-IB, ataques que utilizaram deepfakes resultaram em perdas médias 4,2 vezes superiores às de fraudes baseadas apenas em engenharia social tradicional. Mais grave do que o impacto financeiro imediato é a erosão da confiança em mecanismos tradicionais de verificação de identidade, especialmente aqueles baseados exclusivamente em biometria ou reconhecimento facial sem detecção avançada de ataques de apresentação.
Identidade sintética e infiltração organizacional
Outro vetor de risco em expansão é o uso de identidades sintéticas. Ao combinar dados reais vazados com informações geradas por inteligência artificial, criminosos conseguem criar perfis coerentes, persistentes e extremamente difíceis de distinguir de identidades legítimas. Entre 2022 e 2025, os casos investigados pelo Group-IB envolvendo identidade sintética cresceram 300%, afetando diretamente processos de onboarding digital, concessão de crédito, contratação remota e acesso a sistemas corporativos.
O impacto dessa prática vai além da fraude financeira. Em um dos casos analisados, mais de 300 empresas norte-americanas contrataram profissionais com identidades falsas ligadas a operações de espionagem, evidenciando como a identidade sintética se tornou uma ameaça estratégica, e não apenas operacional.
Automação, evasão e os limites dos modelos tradicionais de defesa
A inteligência artificial também vem sendo utilizada para contornar mecanismos de detecção e antifraude. Campanhas assistidas por IA são capazes de adaptar seu comportamento em tempo real, modificando padrões de ataque conforme a resposta dos sistemas de defesa. Como resultado, até 55% das tentativas de fraude baseadas em IA não são detectadas na primeira interação, segundo estimativas do Group-IB.
Esse cenário expõe as limitações de controles estáticos e abordagens baseadas apenas em regras. A defesa eficaz passa a exigir monitoramento contínuo, correlação de múltiplos sinais de risco e arquiteturas de confiança dinâmicas, capazes de avaliar não apenas eventos isolados, mas o contexto completo das interações digitais.
Implicações para governança, identidade e confiança
Embora o relatório tenha foco técnico, suas conclusões dialogam diretamente com temas de governança e regulação. A disseminação de ferramentas criminosas baseadas em IA amplia a assimetria entre atacantes e defensores e pressiona modelos legais e institucionais ainda em maturação. Sem padrões claros de transparência, responsabilização e cooperação internacional, o uso ofensivo da inteligência artificial tende a se expandir mais rapidamente do que a capacidade de resposta dos sistemas de proteção.
Nesse contexto, a confiança digital deixa de ser um atributo estático e passa a depender de múltiplas evidências técnicas, incluindo identidade forte, criptografia, autenticação robusta e monitoramento contínuo. A IA, ao mesmo tempo em que amplia o risco, também se impõe como parte indispensável da resposta defensiva.
Conclusão
O relatório Weaponized AI deixa claro que a quinta onda do cibercrime não é apenas uma evolução tecnológica, mas uma transformação estrutural do ecossistema criminoso global. Com perdas financeiras associadas a fraudes habilitadas por inteligência artificial crescendo mais de 230% e a automação criminosa se tornando dominante, a segurança digital entra em uma nova era de complexidade.
A resposta a esse cenário não será construída apenas com mais tecnologia, mas com identidade confiável, governança, cooperação e inovação contínua. Em um ambiente onde máquinas atacam máquinas, a capacidade de estabelecer confiança verificável passa a ser o principal diferencial entre resiliência e vulnerabilidade no mundo digital.
Do jaleco à dark web: o tráfico de informações médicas no Brasil
DIG AI: Assistente de IA sem Censura na Darknet à Serviço de Criminosos e Terroristas
Deepfake já é encontrada por preços a partir de 160 reais na dark web, aponta Kaspersky
Passaportes escaneados e contas de milhas são vendidos na dark web por até US$ 5.000, revela estudo da NordVPN
O Crypto ID conecta tecnologia, regulação voltada à segurança da informação com inteligência editorial porque acreditamos no poder da informação bem posicionada para orientar decisões.
Conheça a coluna Cibersegurança.
































