Notícia

Migalhas

Reconhecimento facial e discriminação algorítmica nos municípios

Publicado em 07 maio 2021

Diante de um uso tão difundido quanto este, cabe indagar: ao se fazer valer dessa tecnologia, o poder público brasileiro mostra-se preparado para lidar com os riscos de discriminação algorítmica nela embutidos?

O reconhecimento facial é uma tecnologia biométrica antiga à qual os avanços recentes da inteligência artificial (IA) vêm conferindo novos desenvolvimentos e possibilidades de aplicação. No Brasil, sua utilização pelo setor público já é uma realidade. O Instituto Igarapé identificou 47 usos dessa tecnologia pela administração pública, distribuídos por 16 estados e 30 cidades diferentes. Diante de um uso tão difundido quanto este, cabe indagar: ao se fazer valer dessa tecnologia, o poder público brasileiro mostra-se preparado para lidar com os riscos de discriminação algorítmica nela embutidos?

Avaliações do National Institute of Science and Technology indicam que erros de verificação são até 100 vezes mais prováveis entre rostos de afrodescendentes e asiáticos do que entre rostos caucasianos. Já as pesquisadoras Joy Buolamwini e Timnit Gebru descobriram que, se entre os homens de pele mais clara as taxas máximas de erros de alguns programas giram em torno de 0,8%, elas saltam para até 34,7% entre mulheres com tonalidades mais escuras de pele.

Vieses algorítmicos como esses podem acentuar algumas de nossas chagas sociais - notadamente, o racismo e a misoginia. Trata-se da possibilidade de uma estudante ser tomada, indevidamente, como fraudadora de um passe livre estudantil ao qual tem direito ou de um jovem negro ser confundido, de modo igualmente equivocado, com alguém que cometeu algum crime.

A fim de verificar quão preparado está o poder público local para lidar com riscos sociais dessa natureza, investigamos os diários oficiais eletrônicos de 13 municípios com mais de um milhão de habitantes: São Paulo, Rio de Janeiro, Brasília, Fortaleza, Belo Horizonte, Manaus, Recife, Goiânia, Belém, Porto Alegre, Campinas, São Luís e São Gonçalo. Neles, buscamos ocorrências ligadas à expressão "reconhecimento facial" e, em casos específicos, à palavra "facial". A varredura cobriu o período de janeiro de 2010 a dezembro de 2020 - exceção feita aos casos em que o diário oficial digital teve início após janeiro de 2010 - e detectou projetos de lei; licitações, chamamentos públicos e contratos; bem como leis, decretos e resoluções nas áreas de transporte e de segurança, e, em menor medida, também em saúde e educação.

O material coletado nos permitiu três conclusões. A primeira delas é que o envolvimento do poder legislativo com o tema investigado é baixo. Identificamos apenas quatro projetos de lei apresentados por vereadores referentes à utilização do reconhecimento facial pela administração pública municipal, sendo que nenhum deles se mostra atento aos riscos sociais dessa tecnologia.

Constatamos que o poder executivo também se mostra pouco sensível a isso. Tomemos Rio de Janeiro e Fortaleza como exemplos. Nas duas cidades, encontramos tentativas de utilização da tecnologia para checagem da presença de alunos em escolas municipais. Ambas são do segundo semestre de 2020 e, por isso, já deveriam observar as diretrizes da lei Geral de Proteção de Dados Pessoais (LGPD), o que não fizeram.  

Nos dois casos, houve repercussões negativas. No Rio de Janeiro, por exemplo, foi proferida decisão monocrática pelo Tribunal de Contas do Município para suspender provisoriamente a licitação, dada a ausência de justificativas que comprovassem sua real necessidade. Uma das indagações refere-se à existência, ou não, de estudo sobre possíveis conflitos entre o sigilo de dados pessoais e a utilização desta tecnologia à luz do Estatuto da Criança e do Adolescente.

Finalmente, avaliamos a adequação de leis, decretos e resoluções à LGPD. Focamos as áreas de transporte, saúde e educação, pois, nelas, a lei em questão se aplica integralmente ao tratamento de dados pessoais. De modo geral, averiguamos que o esforço de adequação legal dos municípios deverá ser grande, mas que não parece estar em andamento. Verificamos problemas relacionados à inobservância de princípios basilares da lei (artigo 6°), de direitos do titular de dados (artigos 9° e 18 e 19), de indicação de base legal para tratamento e uso compartilhado (artigos 7°, 11, 14), de publicidade de informações (artigos 11, § 2°, 14, § 2°, 23, I e III, e 41, § 1°, e 50, § 3°), bem como a dúvidas acerca da existência de relatório de impacto (artigos 5°, XVII, e 38), de medidas de segurança (artigo 46) e de documentos de governança e boas práticas (artigo 50). Além disso, não identificamos dispositivos legais capazes de endereçar uma preocupação central da LGPD: evitar que um mesmo banco de dados seja utilizado tanto em áreas às quais ela se aplica, quanto em áreas em que ela não se aplica.

As ocorrências no setor de transporte ilustram os pontos acima. Em sete cidades, elas são anteriores à LGPD. Nelas, os órgãos públicos já tiveram - ao menos em tese - tempo hábil para corrigir eventuais práticas e decisões não condizentes com a lei. Todavia, não foi essa a realidade que encontramos.

A consulta aos sites de algumas dessas prefeituras e de suas secretarias de transporte revelou que, em geral, as administrações públicas locais não contam com mecanismos que correspondam aos princípios e obrigações de transparência da LGPD, como o acesso facilitado às informações referentes ao tratamento de dados pessoais. Elas nem mesmo tornam públicas informações sobre a existência de instrumentos que a lei exige para o controle de aplicações com alto risco, como os relatórios de impactos.

Como se vê, os grandes municípios brasileiros parecem pouco preparados para usar aplicações de IA, como o reconhecimento facial, de modo responsável. Os caminhos para lidarmos com este problema não estão dados, mas passam - por certo - por um envolvimento maior do poder legislativo e dos órgãos de controle locais com temas tecnológicos e pela adequação dos municípios à LGPD - uma lei necessária, ainda que não suficiente, para prevenir e remediar a discriminação algorítmica. Infelizmente, a estratégia nacional de IA - publicada em abril deste ano - não apresenta qualquer caminho para uma adequação legal tão delicada quanto esta.

____________

Os quatro autores são pesquisadores da área de Humanidades do Centro de Inteligência Artificial (C4AI-USP), que tem o apoio da Fundação de Apoio à Pesquisa do Estado de São Paulo (processo FAPESP #2019/07665-4) e da IBM Corporation.

Alexys Campos Lazarou

Advogado criminalista, membro do Observatório do Direito Penal e advogado do escritório Cascione Pulino Boulos Advogados.

Rodrigo Brandão

Cientista político pela USP

João Lucas Sacchi de Oliveira

Assistente parlamentar na ALESP

Leôncio da Silva Junior

Cientista social pela USP