O golpe de deepfake que resultou na perda de US$ 26 milhões por uma empresa multinacional em Hong Kong ocorreu em meados de janeiro de 2024. A fraude só foi descoberta quando o funcionário consultou a sede da corporação após realizar as transferências
Recentemente, uma empresa multinacional em Hong Kong sofreu um prejuízo de US$ 26 milhões (aproximadamente R$ 129 milhões) devido a um golpe sofisticado que utilizou a tecnologia de deepfake.
O golpe envolveu a simulação de uma videoconferência com a presença do diretor financeiro da empresa, que na verdade era um deepfake.
O funcionário do setor financeiro da empresa foi persuadido a realizar 15 transferências para cinco contas bancárias diferentes, totalizando o montante milionário. O golpe só foi descoberto quando o funcionário consultou a sede da corporação após realizar as transferências.
Este caso de golpe com deepfake não é um incidente isolado. A polícia de Hong Kong informou sobre seis prisões ligadas a fraudes semelhantes e o uso de deepfakes para burlar sistemas de reconhecimento facial. Esses incidentes sublinham a necessidade de vigilância e medidas de segurança robustas contra fraudes digitais.
A polícia de Hong Kong não divulgou o nome da empresa envolvida no golpe de deepfake. As informações sobre a identidade dos funcionários afetados também foram mantidas em sigilo. Isso é uma prática comum em investigações de fraude para proteger as vítimas e a integridade da investigação.
Deepfake é uma técnica que utiliza recursos de inteligência artificial para substituir rostos em vídeos e imagens com o propósito de chegar o mais próximo possível da realidade. O termo é uma mistura das expressões deep learning e fake, significando o emprego da IA para criar uma situação falsa.
A técnica é baseada em deep learning, uma subclassificação de IA para definir algoritmos que podem reconhecer padrões com base em um banco de dados. Para criar um vídeo de deepfake de determinada personalidade, o sistema precisa ser alimentado com fotos e vídeos em que ela aparece. Quanto mais material houver, maiores serão as chances de se obter um bom resultado.
Treinada com base no conteúdo fornecido, a IA aprende como a pessoa se comporta, passando a reconhecer padrões de movimento, traços do rosto, da voz e de outras características. Depois de treinado, o sistema usa uma técnica chamada rede contraditória (GAN, na sigla em inglês) para reproduzir os movimentos e a fala como se estivessem sendo realizados pela pessoa que será o alvo do vídeo.
Durante a etapa de GAN, são criadas imagens e comparadas com as de origem (banco de dados), corrigindo-as automaticamente caso seja encontrado algum erro, o que otimiza todo o processo até chegar ao resultado.
No entanto, é importante notar que, embora a tecnologia de deepfake possa ser usada para fins legítimos, ela também tem sido usada para criar conteúdo enganoso ou prejudicial, como vídeos falsos de celebridades ou políticos. Portanto, é crucial estar ciente dessa tecnologia e ser crítico ao consumir conteúdo de vídeo online.
IA impulsionará deepfake e envenenamento de dados em 2024, prevê Lumu
SEK alerta para ataques com uso de inteligência artificial e deepfake durante a Black Friday
ID R&D e Anonybit analisam a ameaça deepfake à biometria e como mitigá-la
Acompanhe como o reconhecimento facial, impressões digitais, biometria por íris e voz e o comportamento das pessoas estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança.
Crypto ID é, sem dúvida, o maior canal de comunicação do Brasil e América Latina sobre identificação digital.
Leia outros artigos aqui!
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.