Victoria Damasceno e Samuel Fernandes
Bastam alguns para que um algoritmo de reconhecimento facial identifique uma pessoa, correlacionando seu rosto com milhões de faces de um banco de dados. Caso seja procurada pela Justiça, a pessoa pode ser abordada pela polícia dentro de alguns minutos. Se for muito parecida com uma, também.
Vinte estados das cinco regiões do Brasil utilizam ou estão implementando a tecnologia de reconhecimento facial na segurança pública local. Outros três estudam sua implementação e apenas quatro estados não utilizam, não tiveram contato com o sistema ou planejam utilizá-lo. Os dados foram levantados pela reportagem por meio das secretarias estaduais de Segurança e das polícias Civil e Militar.
A tecnologia também será usada pela Polícia Federal. O órgão anunciou um sistema que irá coletar, armazenar e cruzar dados pessoais de 50,2 milhões de brasileiros. Para isso, o programa utilizará registros do reconhecimento facial e impressão digital, além de unificar dados das secretarias de Segurança estaduais.
No combate ao crime, a tecnologia é usada para capturar foragidos e procurados da Justiça, mas os governos locais também a utilizam para buscar desaparecidos. Na maioria dos casos, as polícias mantêm a operação 24 horas por dia. Em outros, apenas em grandes eventos como o Carnaval.
Em São Paulo, o sistema foi implementado em 2020, com o objetivo de ser usado como apoio às investigações policiais. São cerca de 30 milhões de faces registradas, o que, segundo a Secretaria de Segurança Pública do estado, “permite maior celeridade, confiabilidade e capacidade de processamento das demandas cotidianas”.
A pasta não respondeu como a polícia opera quando alguém é reconhecido. Declarou que as faces utilizadas pelo sistema são provenientes do banco de dados da Polícia Civil, mas não informou a origem das informações do banco.
A Bahia usa o reconhecimento facial desde 2018 . O sistema é alimentado pelo Banco Nacional de Mandados de Prisão, que possui cerca de 333,5 mil foragidos e procurados da Justiça. Até o dia 16 de junho, 209 procurados tinham sido presos com o auxílio da tecnologia. Nenhum algoritmo desenvolvido até agora, no entanto, oferece 100% de precisão. Todos estão sujeitos a erros. No caso da população negra, as chances de reconhecimentos falhos são ainda maiores.
Em 2018, o projeto Gender Shades, desenvolvido pelas pesquisadoras em inteligência artifical Joy Buolamwini e Timnit Gebru, verificou a precisão do reconhecimento facial em quatro diferentes categorias: mulheres de pele mais escura, homens de pele mais escura, mulheres de pele mais clara e homens de pele mais clara.
Foram avaliadas tecnologias desenvolvidas pela Microsoft, a IBM e a chinesa Megvii. As pesquisadoras utilizaram 1.270 rostos de três países africanos e três países nórdicos. O algoritmo que se saiu melhor tinha precisão de 100% para homens de pele mais clara e 79,2% para mulheres de pele mais escura. O que teve o pior desempenho reconhecia homens de pele mais clara com 99,7% de precisão, enquanto mulheres de pele mais escura com 65,3%.
Para que um rosto seja reconhecido com o maior nível de similaridade possível, o algoritmo precisa ser treinado com um grande número de faces de pessoas de diferentes tons de pele, gênero e idade. A maioria dos sistemas desenvolvidos até agora foi treinada com pessoas brancas, o que dificulta o reconhecimento de outras raças.
A explicação é de Pablo Nunes, coordenador do Cesc (Centro de Estudos de Segurança e Cidadania) e responsável pelo Panóptico, um monitor de projetos de reconhecimento facial no Brasil. Ele conta que o local onde o algoritmo é criado também influencia na sua precisão, por refletir seus criadores e a população local.
“Algoritmos de reconhecimento facial confeccionados nos Estados Unidos e Europa, por exemplo, têm muita dificuldade não só com pessoas negras, mas principalmente com mulheres negras e pessoas asiáticas”, diz.Na sua avaliação, a aplicação desses sistemas na segurança pública brasileira pode agravar problemas já existentes. Não aumentaria, por exemplo, a efetividade policial, pois seriam muitos os recursos gastos com agentes atendendo falsos positivos, devido à rapidez da tecnologia. Por outro lado, poderia escalar a violência nas abordagens de pessoas negras.
Um estudo da Rede de Observatórios de Segurança monitorou prisões e abordagens feitas com a tecnologia nos estados da Bahia, Ceará, Paraíba, Rio de Janeiro e Santa Catarina entre março e outubro de 2019. Nos casos em que havia informação sobre raça, 90,5% eram negras.
A LGPD (Lei Geral de Proteção de Dados), que dispõe sobre o tratamento de dados pessoais no Brasil, não dispõe sobre os mecanismos de reconhecimento facial.
Ana Carolina Lima, advogada e diretora executiva do AqualtuneLab, um laboratório jurídico sobre raça, tecnologia e direito, afirma ser necessário criar leis específicas. “Quando empresas e órgãos públicos de segurança pública colhem dados sobre pessoas a fim de fiscalizar, vigiar, monitorar comportamentos, isso precisa ser feito com a máxima transparência possível.”
Nos EUA, a falta de regulamentação e as prisões injustas com o auxílio da tecnologia fizeram com que cidades como São Francisco e Boston barrassem o uso do sistema em seus departamentos de polícias. Uma pesquisa realizada pela faculdade de direito da Universidade Georgetown afirma que metade dos adultos do país tem seus rostos em bases de dados de agências de segurança.
No último dia 15, foi proposto no Congresso americano um projeto de lei que proíbe o governo federal de utilizar o reconhecimento facial na segurança pública sem que existam leis específicas sobre o tema.
A proposição segue parte do relatório de Princípios Orientadores Para o Uso da Tecnologia de Reconhecimento Facial pela Polícia, feito por entidades.
Uma das cinco diretrizes do documento diz que a tecnologia só deve ser usada em investigações, e não deve ser considerada como o único motivo para a ação da polícia.
No Brasil, em estados como o de São Paulo e do Rio de Janeiro, o reconhecimento não é o único fator levado em conta nas investigações. Isso gera, porém, o alargamento da porta de entrada para o sistema carcerário, de acordo com Enedina do Amparo Alves, advogada e doutora em Ciência Sociais pela PUC (Pontifícia Universidade Católica).
“O problema é enxergar essa tecnologia como uma nova forma de diluição do racismo via dispositivos digitais”, diz.