O estudo da iProov destaca a crescente ameaça dos deepfakes no cenário digital e a dificuldade da população em identificar essas falsificações, o que coloca em risco informações pessoais e segurança financeira. A empresa enfatiza a necessidade de soluções tecnológicas avançadas, como a biometria facial com detecção de vida, para combater essa ameaça em constante evolução.
Menos de 1% das pessoas consegue detectar com precisão falsificações geradas por IA, afirma iProov
Uma nova pesquisa da iProov, fornecedora líder mundial de soluções científicas para verificação biométrica de identidade, revela que a maioria das pessoas não consegue identificar deepfakes – vídeos e imagens incrivelmente realistas gerados por IA (Inteligência Artificial), geralmente projetados para se passar por pessoas. O estudo testou 2.000 consumidores no Reino Unido e nos EUA, expondo-os a uma variedade de conteúdo da vida real e deepfakes.
Os resultados são alarmantes: apenas 0,1% dos participantes conseguiram distinguir com precisão entre conteúdo real e falso em todos os estímulos, incluindo imagens e vídeos.

Apenas 0,1% das pessoas pesquisadas foi capaz de identificar deepfakes com precisão, ressaltando o quão vulneráveis as organizações estão diante das ameaças de fraude de identidade”, afirma Andrew Bud, fundador e CEO da iProov.
“Mesmo quando as pessoas suspeitam que é um deepfake, nossa pesquisa nos releva que a grande maioria delas não faz nada. Além disso, os criminosos se aproveitam da incapacidade dos consumidores em distinguir imagens reais de falsas, o que põe em risco as informações pessoais e a segurança financeira.”
Dentre as principais conclusões do estudo, destacam-se:
- Falha na detecção de deepfakes: Apenas 0,1% dos entrevistados foram capazes de identificar corretamente todos os estímulos deepfakes e reais em um estudo no qual foram instruídos a procurarem por deepfakes. Em situações do mundo real, onde as pessoas estão menos conscientes da ameaça, a vulnerabilidade a deepfakes provavelmente é ainda maior.
- Gerações mais velhas são mais vulneráveis: O estudo descobriu que 30% das pessoas entre 55 e 64 anos e 39% das pessoas com 65 anos ou mais nunca tinham ouvido falar de deepfakes, destacando uma lacuna significativa de conhecimento e uma maior suscetibilidade nesse grupo.
- Os vídeos são mais preocupantes: Os vídeos são particularmente desafiadores, pois apenas 9% das pessoas conseguem identificar todos os deepfakes. Essa vulnerabilidade levanta sérias preocupações sobre o potencial de fraude baseada em vídeo, como falsificação em videochamadas ou em cenários em que a verificação de vídeo é usada para verificar a identidade.
- Deepfakes estão por toda parte, mas não são compreendidos: Embora a preocupação com deepfakes esteja crescendo, muitas pessoas desconhecem essa tecnologia. Um em cada cinco consumidores ouvidos (22%) nunca tinha ouvido falar de deepfakes antes do estudo.
- O excesso de confiança é generalizado: Apesar do baixo desempenho, os entrevistados permaneceram confiantes demais em suas habilidades de detectar deepfakes (mais de 60%), independentemente de suas respostas estarem corretas ou não. Isto foi especialmente verdadeiro para adultos jovens (18-34 anos). Essa falsa sensação de segurança é motivo de grande preocupação.
- A confiança está sob ataque: As plataformas de mídia social são vistas como criadouros de deepfakes, com Meta (49%) e TikTok (47%), sendo os lugares onde os deepfakes são mais comumente encontrados online. Isso, por sua vez, reduziu a confiança nas informações e na mídia online: 49% confiam menos nas mídias sociais depois de saberem sobre deepfakes. Apenas um em cada cinco pesquisados denunciaria uma suspeita de deepfake nas plataformas de mídia social.
- Preocupações generalizadas: Três em cada quatro pessoas (74%) estão preocupadas com o impacto social dos deepfakes, especialmente a disseminação de “fake news ” (68%). Esse medo é mais pronunciado em pessoas com mais de 55 anos (82%).
- São necessários mecanismos melhores de conscientização e denúncia: Menos de um terço das pessoas (29%) não toma atitude alguma quando se deparam com uma suspeita de deepfake, provavelmente porque quase a metade (48%) afirma não saber como denunciar deepfakes, enquanto um quarto não se importa se virem uma suspeita de deepfake.
- A maioria dos consumidores não verifica ativamente a autenticidade das informações on-line, aumentando sua vulnerabilidade a deepfakes: Apesar da crescente ameaça de desinformação, apenas um em cada quatro afirma buscar fontes alternativas de informação caso suspeite que se trata de um deepfake. Apenas 11% das pessoas analisam criticamente a fonte e o contexto das informações para determinar se são deepfakes, o que significa que a grande maioria é altamente suscetível a enganos e à disseminação de narrativas falsas.

Os especialistas em segurança há muito alertam sobre as ameaças representadas pelos deepfakes tanto para indivíduos quanto para organizações. Este estudo demonstra que as organizações não podem mais confiar no julgamento humano para detectar deepfakes e devem buscar meios alternativos para autenticar os usuários de seus sistemas e serviços”, afirma o professor Edgar Whitley, especialista em identidade digital da London School of Economics and Political Science.
“As empresas de tecnologia precisam proteger seus clientes implementando fortes medidas de segurança. O uso da biometria facial com vivacidade fornece um fator de autenticação confiável e prioriza a segurança e o controle individual, o que garante que as organizações e os usuários possam manter o ritmo e permanecer protegidos dessas ameaças em constante evolução”, completa o CEO da iProov.
A crescente ameaça dos deepfakes
Os deepfakes representam uma ameaça avassaladora no cenário digital atual e evoluíram a um ritmo alarmante nos últimos 12 meses. O Relatório de Inteligência de Ameaças de 2024 da iProov destacou um aumento de 704% na troca de rostos, que é um tipo de deepfake.
A capacidade dos deepfakes de se passarem por pessoas de forma convincente os torna uma ferramenta poderosa para que criminosos cibernéticos obtenham acesso não autorizado a contas e dados confidenciais. Eles também podem ser usados para criar identidades sintéticas para fins fraudulentos, como abrir contas falsas ou solicitar empréstimos. Isso representa um desafio significativo à capacidade humana de discernir o que é real do falso, e tem amplas implicações para a segurança, a confiança e a disseminação de desinformação.
O que pode ser feito
À medida que os deepfakes se tornam cada vez mais sofisticados e os humanos sozinhos não conseguem mais distinguir com segurança o real do falso, eles precisam confiar na tecnologia para detectá-los. Para combater a crescente ameaça dos deepfakes, as organizações devem buscar adotar soluções que utilizem tecnologia biométrica avançada com detecção de vida, que verifica se uma pessoa é a pessoa certa, uma pessoa real, e se ela está se autenticando naquele momento.
Essas soluções devem incluir detecção constante de ameaças e melhoria contínua das medidas de segurança para ficar à frente das técnicas de deepfake em evolução. Também é necessária uma maior colaboração entre provedores de tecnologia, plataformas e formuladores de políticas para desenvolver soluções que mitiguem os riscos representados pelos deepfakes.
Teste avalia a capacidade de detecção de deepfakes
Para avaliar a capacidade das pessoas de identificarem deepfakes, a iProov criou um teste online que desafia você a diferenciar o verdadeiro do falso. Faça o teste e veja sua pontuação.
Conheça o Caso de Estudo do Bradesco com a Solução da iProov

Precisávamos de uma tecnologia que fosse capaz de identificar quando a imagem capturada era de uma pessoa que realmente estava operando o device, e que também conseguisse identificar os ataques até então conhecidos”, Marcelo Castilho, especialista em Identificação e Autenticação da área de Inovação do Bradesco – Inovabra.
Em entrevista ao Crypto ID, Marcelo Castilho, da área de Inovação do Bradesco, falou sobre a implementação da biometria facial e os desafios da detecção de vivacidade (Liveness) no combate a fraudes de identidade.
Em parceria com a iProov, o Bradesco implementou a biometria facial com foco na resiliência a ataques sofisticados. A tecnologia tem impactado positivamente a experiência do cliente, tornando as transações mais rápidas e convenientes, além de aumentar a percepção de segurança.
O Bradesco em seguida expandiu o uso da biometria facial para outros casos, como compras online e presenciais e transações PIX, além de continuar investindo em tecnologias de Liveness.
Mas como funciona essa tecnologia de biometria facial na prática e quais os desafios para garantir sua eficácia? Para entendermos melhor, vale a pena conferir a entrevista que o Crypto ID realizou com Marcelo Castilho, especialista em Identificação e Autenticação da área de Inovação do Bradesco – Inovabra.
Sobre a iProov
A iProov fornece soluções de identidade biométrica baseadas em ciência que combinam experiências excepcionais para o usuário com os mais altos níveis de garantia. A Biometric Solutions Suite da empresa permite integração e autenticação remotas seguras e sem esforço, simplificando as experiências de acesso digital e físico.
Em dezembro de 2023, a Gartner listou a iProov como um fornecedor representativo no relatório Innovation Insight para autenticação biométrica e a Acuity Market Intelligence apontou a empresa como Luminary no Biometric Digital Identity Prism de 2023. A iProov também foi reconhecida como Líder em Inovação pelo analista do setor KuppingerCole, Market Compass of Providers of Verified Identity 2022. Para mais informações, acesse o site da empresa.
ID Talk com Marcelo Castilho: Liveness e o Futuro da Biometria Facial no Bradesco
A biometria é o futuro do varejo e como meio de pagamento com a face
Bradesco aplica camada extra de segurança em operações de PIX nos canais digitais
Acompanhe como o reconhecimento facial, impressões digitais, biometria por íris e voz e o comportamento das pessoas estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança.
Leia outros artigos de nossa coluna de Biometria!


Ao anunciar no CRYPTO ID, sua organização contribui para a divulgação de inovações tecnológicas que visam agregar segurança ao relacionamento entre empresas e indivíduos no ambiente eletrônico para possibilitar transações eletrônicas seguras e confiáveis em ambientes públicos e privados.
By advertising with CRYPTO ID, your organization contributes to the dissemination of technological innovations that enable secure and reliable electronic transactions between businesses and individuals.
Fale com a gente: +55 11 3881-0053 ou contato@cryptoid.com.br