A União Europeia divulgou o texto final da Lei de Inteligência Artificial, estabelecendo prazos cruciais para a implementação do primeiro conjunto abrangente de regras de IA em todo o mundo.
A legislação recebeu aprovação final do Conselho da UE em maio e entrará em vigor em 1º de agosto de 2024. As disposições da Lei de IA serão aplicáveis aos desenvolvedores de IA que operam dentro do bloco em um período de dois anos, a partir de 2 de agosto de 2026.
Até essa data, os estados-membros da UE deverão estabelecer pelo menos um “sandbox” regulatório de IA em nível nacional.
No entanto, é importante observar que o prazo para a proibição de casos de uso de IA considerados de “risco inaceitável” é 2 de fevereiro de 2025.
Essa proibição abrange aplicações como sistemas de categorização biométrica com base em características sensíveis, reconhecimento de emoções no ambiente de trabalho e escolas, além da criação de bancos de dados de reconhecimento facial por meio de raspagem não direcionada de imagens faciais da web ou filmagens de CFTV. A legislação, no entanto, prevê exceções para aplicação da lei em circunstâncias específicas.
“Risco inaceitável” refere-se a situações em que os riscos associados a uma determinada ação, tecnologia ou prática são considerados excessivos, perigosos ou intoleráveis.
No contexto da Lei de Inteligência Artificial (IA) da União Europeia (UE), o risco inaceitável está relacionado a certos casos de uso de IA que podem causar danos significativos à sociedade, aos direitos fundamentais dos cidadãos ou à segurança pública.
Aqui estão alguns exemplos de casos de uso de IA considerados de risco inaceitável
A Lei de IA da UE proíbe explicitamente esses casos de uso de IA de risco inaceitável e estabelece diretrizes rigorosas para outros sistemas de IA de alto risco. O objetivo é garantir que a IA seja usada de maneira ética, transparente e responsável, protegendo os direitos dos cidadãos e a segurança pública.
- Categorização Biométrica com Base em Características Sensíveis:
- Isso envolve sistemas de IA que classificam pessoas com base em características biométricas, como raça, religião, orientação sexual ou outras informações sensíveis. Essa prática pode levar a discriminação e violações de privacidade.
- Reconhecimento de Emoções no Local de Trabalho e Escolas:
- O uso de IA para detectar emoções em ambientes como locais de trabalho ou escolas pode ser invasivo e afetar negativamente a privacidade e o bem-estar das pessoas.
- Criação de Bancos de Dados de Reconhecimento Facial sem Consentimento:
- Coletar imagens faciais de forma não direcionada (por exemplo, raspagem de imagens da web ou filmagens de câmeras de segurança) para criar bancos de dados de reconhecimento facial representa um risco inaceitável, especialmente sem o consentimento das pessoas envolvidas.
- Identificação Biométrica Remota em Espaços Públicos:
- O uso de sistemas de IA para identificar pessoas em tempo real em espaços públicos, sem seu conhecimento ou consentimento, também é considerado de alto risco.
Outro marco relevante é 2 de maio de 2025, quando os provedores de IA devem receber seus códigos de prática, descrevendo como demonstrar conformidade. Esses códigos serão fornecidos pelo recém-criado Escritório de IA, responsável por manter as regras e procedimentos atualizados.
Além disso, sistemas de IA de uso geral, como o ChatGPT, deverão cumprir regras relacionadas a direitos autorais e transparência até agosto de 2025.
Até agosto de 2027, um ano após a Lei de IA se tornar geralmente aplicável, os desenvolvedores de sistemas de IA de alto risco deverão cumprir obrigações adicionais, conforme descrito no Anexo I da Lei de IA.
Esses sistemas de alto risco, incluindo sistemas de identificação biométrica remota, poderão ser usados no mercado da UE, desde que atendam a requisitos específicos.
As empresas devem estar cientes de que práticas inadequadas de IA podem resultar em multas substanciais: até 35 milhões de euros (ou sete por cento do faturamento anual mundial, o que for maior).
A Comissão Europeia também delineou um cronograma para revisão do regulamento, bem como possíveis alterações na lista de sistemas de IA de alto risco.
É um passo significativo para garantir a confiança e a responsabilidade no uso da inteligência artificial na UE.
Data | Evento | Descrição |
---|---|---|
01/08/2024 | Entrada em vigor da Lei de IA | A legislação começa a ser aplicada na UE. |
02/08/2026 | Aplicação geral das regras de IA | Desenvolvedores de IA devem cumprir as disposições da Lei de IA. |
02/02/2025 | Proibição de casos de uso de IA de risco | Certas aplicações de IA são proibidas devido a riscos inaceitáveis. |
02/05/2025 | Códigos de prática para conformidade | Os provedores receberão códigos de prática para demonstrar conformidade. |
08/2025 | Regras de direitos autorais e transparência | Sistemas de IA de uso geral devem cumprir essas regras. |
08/2027 | Obrigações adicionais para sistemas de alto risco | Desenvolvedores de IA de alto risco devem cumprir requisitos específicos. |
Multas por práticas inadequadas | Empresas podem enfrentar multas substanciais por violações. | |
Revisão do regulamento e atualização da lista | A Comissão Europeia continuará a avaliar e ajustar as regras conforme necessário. |
Regulamentação da Inteligência Artificial: Lições da União Europeia para o Brasil. Por Roni Franco
Entenda os principais pontos da nova legislação da União Europeia, que regulamenta o uso de IA
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.
Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!