Inteligência Artificial irá explorar mais autenticações fracas, automatizando o roubo de credenciais e comprometendo os canais de comunicação
Até 2027, os agentes de Inteligência Artificial (IA) reduzirão em 50% o tempo necessário para explorar as exposições de contas, de acordo com o Gartner, Inc.
“A apropriação de contas (Account takeover – ATO) continua sendo um vetor de ataque persistente, pois as credenciais de autenticação fracas, como senhas, são coletadas por diversos meios, incluindo violações de dados, phishing, engenharia social e malware”, diz Jeremy D’Hoinne, Vice-Presidente e Analista do Gartner. “Os invasores, então, utilizam bots para automatizar uma série de tentativas de login em diversos serviços, na esperança de que as credenciais tenham sido reutilizadas em várias plataformas.”
Os agentes de Inteligência Artificial irão viabilizar a automação de mais etapas na apropriação de contas, desde a engenharia social baseada em vozes falsas (deepfake) até a automação de ponta a ponta de abuso de credenciais de usuários.
Por conta disso, fornecedores lançarão produtos web, aplicativos, APIs (Interface de Programação de Aplicativos) e canais de voz para detectar, monitorar e classificar interações envolvendo agentes de Inteligência Artificial.
“Diante dessa ameaça em evolução, os líderes de segurança devem acelerar a mudança para uma autenticação multifator (MFA) resistente a phishing e sem senha”, afirma Akif Khan, Vice-Presidente e Analista do Gartner.
“Para os casos de uso de clientes, em que os usuários podem escolher entre opções de autenticação, os eduque e incentive a migrar de senhas para chaves de acesso (passkeys) multidispositivo, quando apropriado.”
Defendendo-se contra a ascensão e expansão dos ataques de engenharia social
Além da apropriação de contas, a engenharia social habilitada por tecnologia representará uma ameaça significativa à segurança cibernética corporativa. O Gartner prevê que, até 2028, 40% dos ataques de engenharia social terão como alvo tanto executivos e quanto a força de trabalho em geral.
Os atacantes agora estão combinando táticas de engenharia social com técnicas de realidade falsa, como deepfake de áudio e vídeo, para enganar funcionários durante chamadas.
Embora apenas alguns casos de grande repercussão tenham sido reportados, esses incidentes ressaltaram a credibilidade da ameaça e resultaram em perdas financeiras substanciais para as empresas que foram vítimas dela.
O desafio de detectar deepfakes ainda está em estágio inicial, especialmente quando aplicados às diversas superfícies de ataque de comunicações de voz e vídeo em tempo real entre pessoas em diferentes plataformas
“As empresas precisarão acompanhar as mudanças do mercado e adaptar procedimentos e fluxos de trabalho para melhor resistir a ataques que utilizam técnicas de realidade falsa”, diz Manuel Acosta, Diretor Analista Sênior do Gartner. “Educar os funcionários sobre o cenário de ameaças em evolução, com treinamentos específicos para engenharia social com deepfakes, é uma etapa fundamental.”
Inteligência Artificial e a educação: um problema ético
Como a IA Agentic está transformando a forma de trabalhar
SXSW 2025: IA pode reduzir 8 horas de trabalho por semana e trazer mais propósito profissional
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.


Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!