O Brasil avança para regular o uso da Inteligência Artificial (IA), a exemplo de outros países que adotaram estratégias de aplicação responsável da tecnologia e tiveram ganhos de produtividade
Por Thiago Stabile
O governo brasileiro, por meio do Ministério da Tecnologia, abriu à sociedade consulta pública para debater a legislação e o uso ético da IA, considerando eixos como força de trabalho, pesquisa e desenvolvimento, aplicação nos setores público e privado e segurança pública. A intenção é criar uma Estratégia Brasileira de Inteligência Artificial.
Entre as áreas que podem se beneficiar da tecnologia, estão destacadas na proposta o aumento da competitividade e produtividade, a prestação de serviços públicos, a qualidade de vida da população e a redução das desigualdades sociais. São campos onde há maior potencial de obtenção de benefícios com o uso de soluções relacionadas à Inteligência Artificial.
Trabalho não falta. No Índice de Prontidão para IA, desenvolvido pela Oxford Insights e pelo International Development Research Center, o Brasil aparece no 40º lugar, entre 194 países analisados.
Mais de 20 países elaboraram planos nacionais para tirar proveito da IA e mitigar riscos desde 2017. Inclusive nações desenvolvidas, como China, Canadá, Japão e, mais recentemente, os Estados Unidos. No Senado brasileiro tramita um projeto de lei (N° 5051, de 2019) que vai ao encontro dessa discussão e sugere propostas pertinentes aos estabelecimento de princípios para o uso da IA no Brasil.
Ele traz um ponto essencial a este debate. Estabelece, em seu Artigo 4º, que “os sistemas decisórios baseados em Inteligência Artificial serão, sempre, auxiliares à tomada de decisão humana”. Somente por meio da supervisão humana é possível alcançar 100% de assertividade na aplicação desta tecnologia e afastar da sociedade o temor da eliminação de empregos.
A Justiça brasileira já usa Inteligência Artificial para identificar processos que podem ser sobrestados (suspensos) mediante a vinculação aos chamados Temas de Precedentes dos Tribunais Superiores. A ferramenta faz a indicação de vinculação, mas a decisão de aplicação daquela sentença já existente ao processo de mesmo tema continuará e deve ser do juiz. Com a solução, há economia de 98,5% do tempo proporcionado pela leitura automática das petições iniciais, maior isonomia no julgamento de processos similares e aumento da capacidade de trabalho das unidades judiciais.
O Artigo 4º também prevê, em seu inciso 1º, “que, a forma de supervisão humana exigida será compatível com o tipo, a gravidade e as implicações da decisão submetida aos sistemas de Inteligência Artificial”, como é o caso das decisões judiciais.
A obrigatoriedade da supervisão humana também é importante para que a própria inteligência, que é criada a partir de histórico de análises, seja assertiva. O departamento jurídico de um banco com uma assertividade muito boa na análise de casos com o uso de IA avaliou, erroneamente, que a supervisão humana poderia ser dispensada.
Equivocada, a decisão gerou um prejuízo gigantesco ao seu patrimônio. Ao longo do tempo, casos com classificações incorretas deixaram de ser identificados e seus dados foram sendo incorporados à IA, que sucessivamente aplicou em outros processos. Nesse sentido, o projeto de lei em discussão no Senado também acerta ao determinar que “a responsabilidade civil por danos decorrentes da utilização de sistemas de Inteligência Artificial será de seu supervisor” (Artigo 4°, inciso 2°).
Há um outro caso emblemático, levantado por uma série de reportagens publicada em 2016 pela redação independente de jornalismo investigativo ProPublica, nos EUA. A equipe desencadeou um debate sobre essas ferramentas, destacando o viés racial incorporado nas avaliações de risco nas audiências prévias à fiança e nas sentenças nos Estados Unidos. A investigação mostrou que, se a pessoa fosse negra, não era concedida a liberdade provisória.
Isso não aconteceu porque a IA é racista. Mas porque o histórico dos processos carregam preconceito. A Inteligência Artificial só se baseia nos dados que foram imputados para ajudar uma tomada de decisão. Sem revisão humana no processo, essa sentença pode estar baseada em interpretações equivocadas.
Também há uma determinação importante (Artigo 5°, inciso 2º), que prevê a “criação de políticas específicas para proteção e qualificação dos trabalhadores”. Um estudo da universidade de Oxford intitulado “O futuro do trabalho: Quão suscetíveis são os empregos à informatização”, numa tradução livre, mostra que há uma série de ocupações que, em 20 anos, serão extintas em razão das tecnologias. Entre elas estão o atendimento telefônico e o secretariado.
São profissionais que terão de se requalificar para permanecer no mercado. No entanto, um outro documento sobre o tema, produzido durante o Fórum Econômico Mundial de 2018, mostra que as crianças que hoje têm 10, 12 anos, provavelmente ocuparão funções ainda desconhecidas.
O único ponto questionável e que merece revisão é o condicionamento do uso da tecnologia à realização de auditoria dos sistemas (Artigo 2°, inciso 4°). É uma regra desnecessária, tendo em vista a previsão de obrigatoriedade da supervisão humana, e, sobretudo restritiva. Ela inviabilizaria, por exemplo, o uso de deep learning (a camada mais profunda de aprendizado de máquina) – que está liderando a explosão de IA hoje.
A técnica está presente em todos os sistemas de reconhecimento facial, já utilizados por gigantes como Google e Amazon. Trata-se de uma aplicação baseada em Inteligência Artificial que tem a função de cruzar dados e identificar padrões que certifiquem a identidade de uma pessoa. No Brasil, a Receita Federal adotou o sistema para identificar passageiros que estão chegando de voos internacionais aos aeroportos brasileiros. Trata-se de uma forma extremamente ágil de verificar a identidade das pessoas, otimizando tanto o trabalho dos profissionais envolvidos quanto o tempo de espera dos passageiros.
Na aplicação de IA no caso dos Temas Precedentes, exemplo mencionado anteriormente, sempre que o sistema recomenda uma vinculação ele gera uma matriz com todas a regras que foram analisadas naquele documento. Uma espécie de justificativa para a recomendação. É este documento que seria analisado em caso de uma auditoria.
Mas nem todas as aplicações de IA permitem gerar uma justificativa direta, como é caso do deep learning – um subconjunto de algoritmos de machine learning que utiliza redes neurais profundas, para realizar tarefas tais como reconhecimento de fala, identificação de imagem e processamento de texto. Suas análises são uma espécie de caixa preta, que trabalha com vários fatores simultaneamente, proporcionando maior assertividade.
Nesse caso, a ausência de justificativa pode ser compensada pela revisão humana. Quando a IA recomenda, por meio de reconhecimento facial, a detenção de uma pessoa, é padrão que, na abordagem, a polícia confira toda a documentação do alvo. É por isso que a supervisão humana existe em todos os casos de aplicação de IA e precisa continuar existindo.
De acordo com o relatório 2019 AI Index, da Universidade de Stanford, o investimento global privado em IA chegou a US$ 70 bilhões em 2019. Não temos mais como adiar essa discussão.
Inteligência Artificial vai mudar a regra do jogo
Segurança dos sistemas de Inteligência Artificial prevista como tendência de TI para 2020