Os modelos de inteligência artificial oferecem inúmeras oportunidades de otimização da rotina e maior eficiência de processos, mas também geram variados (e novos) riscos. Exemplo disso são os crescentes reports do uso indevido da tecnologia “deepfake”, que consiste em um conjunto de técnicas usadas para gerar novos resultados visuais, por exemplo ao substituir rostos em imagens e emular vozes[1].
Por: Juliana Abrusio e Chiara Battaglia Tonin
Nem tudo são flores
Diversos são os casos midiáticos de mau uso desta tecnologia, como aqueles em que rostos de atrizes famosas foram usados para substituir os originais em filmes adultos; recentemente, a cantora Taylor Swift enfrentou situação parecida, em que foi criado conteúdo íntimo com o seu rosto, de forma não consensual, a partir do uso de inteligência artificial[2].
O uso indevido da tecnologia não se restringe a imagens íntimas, podendo ser aplicada também para fins políticos e eleitorais. Um dos exemplos recentes do potencial de deepfakes no contexto político é o vídeo em que a imagem de Barack Obama é utilizada para um alerta justamente sobre os riscos associados ao emprego de deepfake[3].
Os casos de abuso se tornam ainda mais graves na medida em que a tecnologia deepfake também pode ser aplicada em transmissões ao vivo, tornando o conteúdo gerado ainda mais realista e comprometendo o tempo de resposta e checagem da veracidade pela vítima.
Em âmbito corporativo, foi recentemente noticiada a simulação de uma videoconferência com tecnologia deepfake, forjando a participação do diretor financeiro de uma multinacional, que culminou no pagamento de US$ 25 mi ao golpista[4].
Mas nem tudo são espinhos
Há que se considerar que esta mesma tecnologia pode contribuir positivamente em diversas circunstâncias, por exemplo:
- para fins de acessibilidade, ao emular a voz de pacientes que já não podem se comunicar verbalmente;
- treinamento de habilidades sociais, ao criar cenários criativos que simulam situações sociais complexas;
- restauração de imagens, vídeos e gravações, preservando a história e a cultura;
- simulação de situações de risco, como desastres naturais, de modo a capacitar as pessoas para uma rápida reação.
- Ou seja, a problemática não se refere ao método e à tecnologia, mas à finalidade para a qual são utilizados.
- Diversas são as estratégias possíveis para endereçamento dos riscos associados ao uso desta tecnologia, como a vedação ou restrição parcial ao seu uso e desenvolvimento, definição de medidas de governança, entre outras.
E no Brasil?
- Ainda, o tema vem sendo amplamente debatido, especialmente em razão dos impactos desta tecnologia sobre as eleições. Nesse sentido, o Tribunal Superior Eleitoral regulou o uso da inteligência artificial na propagandas eleitorais de 2024[1], não apenas proibindo o uso de deepfakes, mas também obrigando a inclusão de aviso sobre o uso de IA na propaganda eleitoral, restringindo o emprego de robôs para intermediação do contato com o eleitor e estabelecendo e responsabilização das big techs que não removerem imediatamente conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.
- Embora a iniciativa tenha sido pioneira, o emprego de deepfake em outros setores ainda requer reflexão (e, possivelmente, regulação). Assim, diversas propostas sobre o tema tramitam atualmente no Congresso Nacional, a exemplo das seguintes:
- PL 896/2024 – Dispõe sobre a Proteção contra Deepfakes e dá outras providências.
- PL 841/2024 – Altera o Código de Defesa do Consumidor, para tornar obrigatória a exibição de aviso ao consumidor sobre imagem ou vídeo publicitário produzido com o uso de inteligência artificial.
- PL 1119/2024 – Altera o Marco Civil da Internet, obrigando os provedores de aplicações de internet a removerem os conteúdos publicitários divulgados por meio das suas plataformas que utilizem imagens ou vozes falsas de pessoas para promover o anúncio de produtos e serviços.
- PL 177/2024 – Institui a Campanha de Conscientização e Prevenção contra Crimes Cibernéticos, cometidos por meio do uso indevido da inteligência artificial, contra crianças e adolescentes
- [1] Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes. Acesso em: 17 jun. 2024.
- PL 145/2024 – Altera o Código de Defesa do Consumidor, para regular o uso de ferramentas de inteligência artificial para fins publicitários e coibir a publicidade enganosa com uso dessas ferramentas.
- PL 6119/2023 – Altera o Código Penal, para dispor sobre o uso fraudulento de inteligência artificial.
- PL 5342/2023 – Tipifica o crime de Porno Fake e acrescenta o artigo 218-D ao Código Penal.
- PL 5859/2023 – Proíbe o uso de Aplicativos e Programas de Inteligência Artificial para criação de “Deep Nudes” e dá outras providências.
- PL 5467/2023 – Altera a Lei Maria da Penha e o Código Penal, para reconhecer que a divulgação de conteúdo falso sexual configura violência doméstica e familiar e para criminalizar a divulgação de registro falso não autorizado de conteúdo com cena de nudez ou ato sexual ou libidinoso.
- PL 3608/2023 – Estabelece diretrizes para o uso de Deepfakes pós morte.
- Vale notar, ainda, que a tecnologia deepfake pode ser regulada de modo específico, como nas propostas acima, ou no contexto do marco legal de inteligência artificial (IA), na medida em que consiste em modalidade de sistema de IA[1].
Enquanto isso, o que fazer?
- Embora ainda não exista regulação sobre o desenvolvimento e uso de sistemas de inteligência artificial, tampouco a respeito da tecnologia deepfake que não em uso eleitoral, é importante salientar que sua aplicação está sujeita às previsões legais relativas à proteção de dados, segurança da informação, propriedade intelectual e direitos do consumidor.
- Assim, dentre as providências recomendáveis aos que têm interesse no desenvolvimento e uso de soluções envolvendo deepfake e materiais produzidos a partir da técnica, faz-se necessário o mapeamento dos direitos de terceiros relativos aos materiais a serem processados e modificados por meio de deepfake, a avaliação de riscos e impactos algorítmicos de modo a assegurar o uso ético e responsável da tecnologia, elaboração de termos e políticas que estabeleçam as diretrizes aplicáveis ao uso de deepfake e a revisão dos contratos firmados com parceiros de modo a regular os direitos relativos aos conteúdos produzidos a partir da aplicação desta tecnologia.
*Juliana Abrusio e Chiara Battaglia Tonin são, respectivamente, sócia e advogada da área de Direito Digital e Proteção de Dados do Machado Meyer Advogados.
[1] Floridi, L. Artificial Intelligence, Deepfakes and a Future of Ectypes. Philos. Technol. 31, 317–321 (2018). https://doi.org/10.1007/s13347-018-0325-3
[2] Disponível em: https://epocanegocios.globo.com/tecnologia/noticia/2024/01/sera-que-taylor-swift-sera-capaz-de-dar-um-fim-ao-deep-fake.ghtml. Acesso em: 17 jun. 2024.
[3] Disponível em: https://www.youtube.com/watch?v=cQ54GDm1eL0. Acesso em: 17 jun. 2024.
[4] Disponível em: https://www.cnnbrasil.com.br/internacional/funcionario-de-multinacional-paga-us-25-mi-a-golpista-que-usou-deepfake-para-simular-reuniao/. Acesso em: 17 jun. 2024.
Sobre Juliana Abrusio
Especialista em Tecnologia, Privacidade e Proteção de Dados, Cibersegurança e Inteligência Artificial. Profissional reconhecida por diversos diretórios jurídicos (Chambers, Legal 500 América Latina, Latin Lawyers, GDR, Escolha do Cliente, Mulheres no Direito Empresarial, Who’sWho, Análise). Doutora em Filosofia do Direito pela Pontifícia Universidade Católica de São Paulo (PUC/SP), Mestre pela Universidade de Roma Tor Vergata (Itália), pós-graduado lato sensu pela Universidade Presbiteriana Mackenzie. Sócia do escritório de advocacia Opice Blum, Bruno, Abrusio, Vainzof (2002-2020); Diretora Jurídica Adjunto na FIESP (2023); Conselheira na OAB-SP (Seção São Paulo – 2021-2024); Coordenador de Inovação e Tecnologia na Universidade Mackenzie (2020-2021). Diretora do Instituto Legal Grounds (2020-2021). Professora de Direito Digital e Proteção de Dados na Universidade Presbiteriana Mackenzie. Professora convidado na Fundação Dom Cabral, PECE/Poli da Universidade de São Paulo. Coordenadora do Comitê de Direito Digital e Proteção de Dados do CESA (Centro de Estudos das Sociedades de Advogados) (desde 2014); Presidente da Comissão de Economia Digital e Regulação do Instituto dos Advogados de São Paulo (IASP) (desde 2022); Vice-Presidente da Comissão de Estudos em TI e Inteligência Artificial do Instituto dos Advogados de São Paulo (IASP) (2017-2020). Autor do livro “Proteção de Dados na Cultura do Algoritmo, Ed. D´Placido, 2020”; “Covid-19: Impactos Jurídicos na Tecnologia, Ed. D´Placido, 2020”; “Marco Civil da Internet – Lei 12.964/2014”. Organizadora do livro “Educação Digital” (2015, Ed. RT Thonsom Reuters), entre outros. Autor de diversos artigos sobre direito e tecnologia e Colunista do Crypto ID.
Leia outros artigos de Juliana Abrusio aqui!
Sobre Machado Meyer Advogados
Machado Meyer Advogados – Fundado em 1972, o Machado Meyer é um dos mais respeitados escritórios de advocacia do Brasil. O escritório cresceu acompanhando o ritmo acelerado de expansão do Brasil e trabalha para oferecer soluções jurídicas inteligentes para impulsionar os negócios e transformar a realidade dos clientes e da sociedade. Oferece assistência legal a clientes nacionais e internacionais, incluindo grandes corporações dos mais variados setores de atividades, instituições financeiras e entidades governamentais. O escritório está presente em São Paulo, Rio de Janeiro, Brasília, Belo Horizonte e Nova York. Para mais informações, acesse o site: www.machadomeyer.com.br e leia os artigos publicados aqui no Crypto ID escritos por seus advogados nesse link!
No Crypto ID você lê excelentes artigos sobre a legislação brasileira e internacional relacionada à tecnologia e a segurança da informação, também novidades sobre ferramentas e aplicações da tecnologia na prática jurídica. Acesse agora mesmo!