Microsoft descreve abordagem para regular os riscos de sua tecnologia biométrica
A Microsoft destacou alguns dos riscos da adoção biométrica não policiada, discutindo algumas das estratégias que usa para gerenciar os riscos em seu próprio software de reconhecimento facial e de voz.
Seu último relatório de IA governamental descreve o que a empresa chama de “usos sensíveis” da IA, instâncias em que os executivos sentem que exigem uma verificação mais rigorosa.
Os autores também detalham a supervisão adicional que a empresa afirma estar dando a essas tecnologias.
A Microsoft diz que um programa de revisão fornece supervisão adicional para equipes que trabalham em casos de uso de alto risco de seus sistemas de IA, que incluem revisão prática e responsável de projetos de IA e processos de consultoria por meio de seu Office of Responsible AI’s Sensitive Uses.
A empresa alega ter se recusado a construir e implantar aplicativos específicos de IA, após concluir “que os projetos não estavam suficientemente alinhados com nosso padrão e princípios de IA responsável”.
Isso incluiu vetar o pedido de um departamento de polícia local da Califórnia para reconhecimento facial em tempo real por meio de câmeras corporais e câmeras de painel em cenários de patrulha, chamando esse uso de “prematuro”.
O processo de revisão de usos sensíveis ajudou a formar a visão interna de que “precisava haver uma conversa social sobre o uso do reconhecimento facial e que as leis precisavam ser estabelecidas”.
O relatório também delineou sua política de acesso limitado, segundo a qual a Microsoft às vezes exige que clientes em potencial se inscrevam para usar e “divulgue o uso pretendido” para garantir que “atenda a um de nossos casos de uso aceitáveis predefinidos”.
A Microsoft também descreveu como policia o aplicativo de voz neural personalizado do Azure AI, que é usado pela AT&T.
A empresa diz que neste caso “limitou o acesso do cliente ao serviço, garantiu que casos de uso aceitáveis fossem definidos e comunicados por meio de um formulário de inscrição, implementou mecanismos de consentimento do interlocutor, criou termos de uso específicos, publicou documentação de transparência detalhando riscos e limitações e estabeleceu guardrails para ajudar a garantir a participação ativa do orador ao criar uma voz sintética.”
A Casa Branca revelou esta semana seus próprios planos para proteger as pessoas dos perigos da IA.
Os planos mencionam a Microsoft, bem como Anthropic, Google, Hugging Face, Nvidia, OpenAI e Stability AI, abrindo sistemas de IA ao escrutínio do governo.
Fonte: Biometrcsupdate
Acompanhe como o reconhecimento facial, impressões digitais, de íris e voz e o comportamento das pessoas estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança. Crypto ID é, sem dúvida, o maior canal brasileiro sobre identificação digital. Leia outros artigos aqui!