Especialistas das áreas de direito e tecnologia destacam alguns pontos, positivos e negativos, sobre a lei que visa controlar o uso exacerbado da Inteligência Artificial
No último dia 8 de dezembro, a União Europeia (UE) chegou a um acordo provisório em relação à proposta de lei, que visa regular o desenvolvimento e o uso da Inteligência Artificial (AI Act) naquele continente.
Ela é considerada a primeira do mundo a estabelecer um quadro jurídico abrangente e harmonizado para a IA, e tem como intenção garantir que o uso da tecnologia dentro do bloco econômico seja seguro e esteja em conformidade com as leis existentes sobre direitos fundamentais, normas e valores.
A Al Act classifica os sistemas de inteligência artificial em diferentes categorias de risco e estabelece requisitos de qualidade, transparência, supervisão humana e responsabilidade para cada uma delas. A nova norma proíbe o uso de sistemas de IA que podem acabar violando os direitos fundamentais, como a manipulação comportamental ou a vigilância em massa, e cria um sistema de governança e de fiscalização para monitorar o cumprimento das regras e prevê sanções para os infratores.
A nova regulamentação vem sendo alvo de críticas de alguns setores e empresas, que a consideram muito restritiva e prejudicial à competitividade e à inovação. Eles apontam que ela cria uma burocracia excessiva e desincentiva o investimento e a pesquisa em IA na Europa. Além de que a lei não aborda adequadamente os desafios e as oportunidades da IA generativa.
Segundo Thoran Rodrigues, CEO da BigDataCorp, especialista em inteligência artificial, “as normas devem buscar equilibrar os riscos e os benefícios da IA generativa e as especificidades dos modelos de fundação. A lei deve garantir que a IA generativa na Europa seja usada de forma ética, segura e responsável que respeite os valores e as regras europeus, e que contribua para o bem-estar e o progresso da sociedade.”
Para Wallace Souza, professor de Direito do Centro Universitário Newton Paiva, “a criação de uma lei para regular o desenvolvimento e o uso de sistemas de inteligência artificial na Europa é importante para se criar padrões éticos para o desenvolvimento e uso da tecnologia. Esta legislação pode servir como um modelo global, estabelecendo diretrizes para a transparência, a responsabilidade e a proteção de dados, essenciais para manter a confiança do público e assegurar uma evolução tecnológica alinhada aos direitos humanos e à democracia.”
A IA generativa é uma das áreas mais promissoras e controversas da IA, pois pode gerar conteúdos realistas e personalizados, que podem ter diversas aplicações, como entretenimento, educação, saúde, arte e outros. No entanto, a IA generativa também pode ser usada para fins maliciosos, como a produção de desinformação, a falsificação de identidades, a violação de direitos autorais e a invasão de privacidade.
A Inteligência Artificial (IA) tem sido amplamente utilizada no Brasil para os diversos fins, como análises de dados, melhorias na experiência do usuário e desenvolvimento de soluções altamente personalizadas.
Porém, também vem enfrentando alguns desafios, especialmente em relação a golpes usando deepfakes, que têm se tornado cada vez mais comuns e sofisticados, com um aumento de 3000% em 2023. Os criminosos usam ferramentas de inteligência artificial para simular a voz e até o rosto de uma pessoa para aplicar o golpe.
“No Brasil, já foram propostos alguns projetos de lei visando à regulamentação da inteligência artificial, sendo um exemplo o Projeto de Lei 759/23 que tramita na Câmara dos Deputados. Essa proposta busca o estabelecimento de padrões éticos e morais na utilização da IA, capacitação de profissionais da área de tecnologia em IA e estímulo ao investimento em pesquisa e desenvolvimento da IA, ou seja, debates semelhantes aos propostos pela União Europeia”, destaca o professor Wallace.
Para o especialista na tecnologia, o AI Act é um marco importante na regulamentação global da inteligência artificial, pois estabelece regras claras para o uso responsável e ético da IA, com ênfase na transparência e responsabilidade. “No Brasil e em todo o mundo, a IA está sendo cada vez mais adotada em diversos setores. Este ato é um passo crucial para garantir que a IA seja usada de maneira que beneficie a todos, sem comprometer a segurança ou a privacidade. Ele sinaliza um futuro em que a tecnologia e a humanidade podem coexistir,” finaliza.
Sobre a BigDataCorp
A BigDataCorp é a maior datatech da América Latina. Líder no mercado, opera um dos maiores processos de coleta e estruturação de dados do mundo, capturando informações públicas de mais de 1,5 bilhão de fontes globalmente. São mais de 100 petabytes de informação tratadas diariamente para atender empresas de todos os segmentos e portes.
Para auxiliar nas mais diferentes demandas, os dados capturados são disponibilizados através de uma Plataforma de Dados, que reúne milhares de informações sobre pessoas, empresas e produtos, e que pode ser facilmente integrada com qualquer processo operacional.
Prodam-SP lança produtos de Inteligência Artificial
Inteligência Artificial transforma radicalmente a forma como a advocacia trabalha, revela pesquisa