Os golpes, de falsificação de identidade bancária a investimentos fictícios e golpes românticos, são cada vez mais diversificados
Por Cassiano Cavalcanti
A cada dia que passa, a sofisticação das fraudes digitais surpreende pela criatividade empregada pelos criminosos. Além da constante evolução em suas metodologias, eles demonstram dedicação e velocidade na adoção de novas tecnologias, como FraudGPT, representando um desafio significativo para as equipes de segurança.
O cenário é agravado pelo rápido avanço de tecnologias, como a inteligência artificial generativa, que possibilita a criação de imitações quase perfeitas de pessoas e organizações. Esta conjunção de fatores indica uma iminente evolução dos golpes, tornando a detecção de fraudes sem o auxílio de tecnologia avançada praticamente impossível.
A criatividade persistente dos golpistas, embora tenha uma metodologia relativamente simples, continua a se aprimorar. Os golpes, variando de falsificação de identidade bancária a investimentos fictícios, golpes românticos e falsos suportes técnicos, são cada vez mais diversificados.
O objetivo central continua sendo enganar as pessoas para obtenção de dinheiro, informações pessoais ou outros ativos digitais. Essa diversificação e constante inovação nas técnicas ressaltam a urgência de medidas eficazes de segurança para enfrentar as ameaças crescentes.
Segundo uma pesquisa publicada pela Gartner no começo deste ano, a previsão é que, com o aumento dos ataques que utilizam deepfake gerados por IA para burlar a biometria facial, até 2026 cerca de 30% das empresas deixarão de considerar tais soluções de verificação e autenticação de identidade confiáveis isoladamente.
“Na última década, ocorreram vários pontos de inflexão nos campos da IA que permitem a criação de imagens sintéticas. Essas imagens geradas artificialmente de rostos de pessoas reais podem ser usadas por pessoas mal-intencionadas para minar a autenticação biométrica ou torná-la ineficiente”, pontua Akif Khan, analista vice-presidente do Gartner.
Ele explica que as organizações podem começar a questionar a confiabilidade das soluções de verificação e autenticação de identidade “pois não serão capazes de dizer se o rosto da pessoa que está sendo verificada é uma pessoa viva ou um deepfake.”
Mudanças no setor
Se até recentemente, um consumidor mais atento podia captar pistas de que estava frente a frente com algum tipo de fraude, à medida que os avanços tecnológicos ocorrem, os criminosos cibernéticos passam a ter à sua disposição novas formas de manipular as vítimas – especificamente, com a utilização de deepfakes e grandes modelos de linguagem (Large Language Models ou LLMs), que podem criar conteúdos falsos super realistas e que são difíceis de distinguir de atividades legítimas ou reais.
Foi-se a época em que a ortografia e a gramática inadequadas eram indicadores de um possível golpe, já que os LLMs como o ChatGPT podem ajudar a criar e-mails e mensagens de texto sem erros.
Deepfake é uma técnica que utiliza a inteligência artificial para manipular imagens, vídeos ou áudios de pessoas reais. A técnica, por exemplo, pode ser utilizada para criar notícias, entrevistas, endossos ou evidências – tudo falso! Já existem muitos exemplos convincentes de deepfakes online, com as imagens de celebridades ou de políticos.
Grandes modelos de linguagem (LLMs) são sistemas que utilizam IA para gerar textos em linguagem natural, com base em uma entrada ou prompt, basicamente produzindo um conteúdo coerente e fluido, imitando o estilo, tom ou informação de uma pessoa ou gênero específico. Por exemplo, LLMs podem ser usados para criar chatbots, avaliações, postagens, perfis ou e-mails falsos, além de gerar imagens e até mesmo vídeos.
É a combinação dessas duas técnicas que se tornará um divisor de águas no mundo das fraudes, pois possibilitam golpes mais convincentes e personalizados, e que podem atingir indivíduos ou grupos vulneráveis específicos com comunicações que são virtualmente indistinguíveis de comunicações legítimas.
A hora de agir é agora!
Frente a isso, há uma necessidade urgente de soluções inovadoras que possam ajudar consumidores e empresas a combater a ameaça conjunta de deepfakes e LLMs. Ao combinar os esforços das partes interessadas, a capacidade de identificar futuras ameaças fraudulentas será maximizada.
Felizmente, as instituições financeiras e outras organizações podem implementar ou apoiar a disponibilização de tecnologias que já estão no mercado:
Indicadores para o consumidor: dicas que podem ajudar os consumidores a discernir quando algo é uma fraude, usando marcas d’água, carimbos de data e hora, rótulos, avisos ou classificações que podem sinalizar a fonte, autenticidade ou confiabilidade do conteúdo, além de ferramentas ou aplicativos que possibilitem pesquisa reversa de imagens, sites de verificação de fatos ou software de detecção de deepfake;
Biometria comportamental: ao analisar padrões de comportamento humano, como movimentos do mouse, velocidade de digitação ou pressão em telas sensíveis ao toque, a biometria comportamental pode ser usada para detectar ou prevenir atividades suspeitas, bem como para detectar atividade de contas laranja – um componente crucial para monetizar fraudes – mesmo que seja um participante voluntário;
Biometria por voz: essa pode ser uma ferramenta eficaz para rastrear deepfakes de áudio, identificando discrepâncias nas características vocais que não correspondem à voz do locutor original. Essa análise pode ser fundamental para a detecção de fraudes ou golpes que utilizam áudios falsos para obter informações sensíveis.
Os cibercrimes já são um problema dispendioso para os consumidores e para as instituições financeiras e deverão tornar-se ainda mais sofisticadas e desafiadores. Por isso toda a comunidade precisa estar mais consciente e vigilante, e adotar uma postura de trabalho colaborativa, em busca de uma combinação de soluções inovadoras que ajudem a detectar e prevenir estas atividades ilegais.
É inevitável que a tecnologia seja utilizada em ilegalidades, mas os resultados maliciosos discutidos aqui podem ser combatidos de forma eficiente. Felizmente, já possuímos as ferramentas necessárias para evitar que os consumidores sejam sobrecarregados com fraudes e golpes indistinguíveis de contatos e conexões reais.
Vivemos um momento único da evolução tecnológica, em que temos a oportunidade e as ferramentas para nos antecipar frente às ameaças. Nós, como comunidade de combatentes à fraude, não podemos e não iremos desperdiçar essa chance.
Explorar o potencial do reconhecimento facial exige compromisso com a qualidade
Reconhecimento facial: a nova fronteira de segurança em meio aos desafios dos Deepfakes
Com CLM, inteligência de sinal da Vectra AI chega à AL
Leia mais sobre Privacidade e Proteção de Dados em nossa coluna dedicada a esse tema. São artigos sobre o que acontece no Brasil e no Mundo. Aqui!
O Crypto ID trilhou um caminho incrível!
Ao longo de uma década, fomos além das inovações e tendências, tornando-nos referência em segurança digital, identificação e privacidade.
Neste marco tão especial, renovamos nosso compromisso com um mundo digital mais seguro e confiável.
Agradecemos a todos que fizeram e fazem parte dessa trajetória – parceiros, colunistas, colaboradores, assessorias de imprensa e a nossa comunidade! Juntos, estamos construindo um futuro em que empresas, máquinas e pessoas possam confiar muito mais umas nas outra.