Últimas notícias

Fique informado

O golpe sofrido por multinacional em Hong Kong de deepfake resultou na perda de US$ 26 milhões

5 de fevereiro de 2024

Spotlight

Bertacchini da Nethone compartilha sua visão sobre o cenário atual de fraudes digitais

Tivemos a oportunidade de conversar com Bertacchini, especialista em Desenvolvimento de Negócios Sênior na Nethone, sobre como as empresas podem se blindar contra ciberameaças.

17 de abril de 2024

A Transformação Digital do Mercado Imobiliário: Blockchain, Moedas digitais, Cartórios e o Futuro

A tecnologia blockchain tem despertado interesse devido ao seu potencial disruptivo em vários setores, incluindo o setor imobiliário.

8 de abril de 2024

Empresa de Israel traz tecnologia de ponta em cibersegurança para o mercado brasileiro

Com o potencial de crescimento do mercado brasileiro e sua consequente inserção no ambiente digital, os fundadores da Cysfera decidiram trazer as inovações de ponta israelenses ao cenário nacional.

3 de abril de 2024

Do primeiro Robô Advogado ao ChatGPT: Você sabe como as IAs podem impactar o futuro do setor jurídico?

Assista o webinar na íntegra, gratuitamente pelo canal oficial da doc9 no YouTube e obtenha insights essenciais sobre como aproveitar ao máximo as tecnologias emergentes e manter vantagem competitiva neste setor em constante evolução.

28 de março de 2024

AX4B: 64% das empresas brasileiras não possuem soluções corporativas de antivírus, apesar do aumento de 7% nos ataques cibernéticos

A AX4B acaba de divulgar os resultados de sua mais recente pesquisa sobre a situação da segurança cibernética no Brasil.

26 de março de 2024

O golpe de deepfake que resultou na perda de US$ 26 milhões por uma empresa multinacional em Hong Kong ocorreu em meados de janeiro de 2024. A fraude só foi descoberta quando o funcionário consultou a sede da corporação após realizar as transferências

Recentemente, uma empresa multinacional em Hong Kong sofreu um prejuízo de US$ 26 milhões (aproximadamente R$ 129 milhões) devido a um golpe sofisticado que utilizou a tecnologia de deepfake.

O golpe envolveu a simulação de uma videoconferência com a presença do diretor financeiro da empresa, que na verdade era um deepfake.

O funcionário do setor financeiro da empresa foi persuadido a realizar 15 transferências para cinco contas bancárias diferentes, totalizando o montante milionário. O golpe só foi descoberto quando o funcionário consultou a sede da corporação após realizar as transferências.

Este caso de golpe com deepfake não é um incidente isolado. A polícia de Hong Kong informou sobre seis prisões ligadas a fraudes semelhantes e o uso de deepfakes para burlar sistemas de reconhecimento facial. Esses incidentes sublinham a necessidade de vigilância e medidas de segurança robustas contra fraudes digitais.

A polícia de Hong Kong não divulgou o nome da empresa envolvida no golpe de deepfake. As informações sobre a identidade dos funcionários afetados também foram mantidas em sigilo. Isso é uma prática comum em investigações de fraude para proteger as vítimas e a integridade da investigação.

Deepfake é uma técnica que utiliza recursos de inteligência artificial para substituir rostos em vídeos e imagens com o propósito de chegar o mais próximo possível da realidade. O termo é uma mistura das expressões deep learning e fake, significando o emprego da IA para criar uma situação falsa.

A técnica é baseada em deep learning, uma subclassificação de IA para definir algoritmos que podem reconhecer padrões com base em um banco de dados. Para criar um vídeo de deepfake de determinada personalidade, o sistema precisa ser alimentado com fotos e vídeos em que ela aparece. Quanto mais material houver, maiores serão as chances de se obter um bom resultado.

Treinada com base no conteúdo fornecido, a IA aprende como a pessoa se comporta, passando a reconhecer padrões de movimento, traços do rosto, da voz e de outras características. Depois de treinado, o sistema usa uma técnica chamada rede contraditória (GAN, na sigla em inglês) para reproduzir os movimentos e a fala como se estivessem sendo realizados pela pessoa que será o alvo do vídeo.

Durante a etapa de GAN, são criadas imagens e comparadas com as de origem (banco de dados), corrigindo-as automaticamente caso seja encontrado algum erro, o que otimiza todo o processo até chegar ao resultado.

No entanto, é importante notar que, embora a tecnologia de deepfake possa ser usada para fins legítimos, ela também tem sido usada para criar conteúdo enganoso ou prejudicial, como vídeos falsos de celebridades ou políticos. Portanto, é crucial estar ciente dessa tecnologia e ser crítico ao consumir conteúdo de vídeo online.

IA impulsionará deepfake e envenenamento de dados em 2024, prevê Lumu

SEK alerta para ataques com uso de inteligência artificial e deepfake durante a Black Friday

ID R&D e Anonybit analisam a ameaça deepfake à biometria e como mitigá-la

Gartner afirma que líderes jurídicos de compliance e de privacidade classificam a adoção rápida da GenAI como a principal preocupação para os próximos dois anos 

Acompanhe como o reconhecimento facial e impressões digitais, de íris e voz estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança. Crypto ID, o maior canal brasileiro sobre identificação digital. Leia outros artigos aqui!

Learn how facial recognition and iris, voice and fingerprints are being used to ensure accurate digital identification to mitigate fraud and provide users with comfort, mobility and trust. Read other articles here! Crypto ID, the largest Brazilian channel on digital identification. Read other articles here!

Descubra cómo se utilizan el reconocimiento facial y el iris y las huellas dactilares del voz para garantizar una identificación digital precisa para mitigar el fraude y brindar a los usuarios comodidad, movilidad y confianza. Crypto ID, el mayor canal brasileño de identificación digital. ¡Lea otros artículos aquí!

Acompanhe os principais conteúdos sobre Inteligência Artificial!

TAGS

deepfake