Reconhecimento facial: prisões no Carnaval reacendem o debate de uma tecnologia com altas taxas de erros

A Afirmativa ouviu as preocupações de pesquisadores a respeito desse sistema, como a violação da privacidade, o algoritmo racista e o motivo da insistência das autoridades

Por Andressa Franco

O Carnaval 2023 trouxe de volta à tona um debate que vem sendo explorado nos últimos anos: a tecnologia de reconhecimento facial. Em Salvador (BA), um sistema de reconhecimento facial identificou e prendeu 77 foragidos da polícia durante os sete dias de festa. A marca foi comemorada pelo governador da Bahia, Jerônimo Rodrigues (PT).

Não é de agora que a tecnologia é explorada na Bahia. Na Micareta da Feira de Santana de 2019, só 3,6% dos 903 alertas gerados viraram mandados de prisão. Apesar da taxa de acertos ser pequena, em 2021, o então governador Rui Costa fez uma parceria de R$ 665 milhões com o conglomerado Oi e Avantia para expandir. Assim, além de Salvador, outras 77 cidades ganharam 4.095 câmeras conectadas no estado. Hoje, 170 câmeras estão presentes nas estações de ônibus, metrô e outros locais de grande fluxo somente na capital.

Na última segunda-feira (27), o número de foragidos capturados no estado por meio da ferramenta chegou a 721.

Controvérsias

Em paralelo ao suposto sucesso da tecnologia, existem diversos relatos de pessoas abordadas erroneamente pela Polícia. Como o assistente administrativo Davi, que teve sua história contada em uma reportagem do Intercept Brasil, em 2021. O jovem negro foi abordado voltando do trabalho ao passar pela Estação Lapa, em Salvador. As câmeras de reconhecimento facial encontraram similaridades do seu rosto com o de um procurado pela justiça, que tem seus dados cadastrados no banco de dados da Secretaria de Segurança Pública – SSP (BA).

Sistema de reconhecimento facial identificou e prendeu 77 foragidos no Carnaval de Salvador – Imagem: Reprodução

O programa de monitoramento “Smart Sampa” estava previsto para ser lançado em dezembro de 2022, mas foi alvo de questionamentos do Tribunal de Contas do Município (TCM).

O motivo da suspenção do processo licitatório pelo TCM se deu porque foram encontrados termos racistas. No texto original constavam palavras como “vadiagem” e “cor”, que foi substituído por “estrutura corporal”. Outro questionamento diz respeito à privacidade dos dados compartilhados. Segundo o Órgão, a comunidade impactada deveria ter sido consultada. Ainda assim, a prefeitura de São Paulo tem insistido na instalação do sistema.

Um dos espaços em que o reconhecimento facial se tornou uma tendência, são os estádios de futebol. Mas a pesquisa ‘Um Rio de câmeras com olhos seletivos’ analisou o uso do mecanismo pelas polícias fluminenses em 2019 e mostrou que ele não é eficaz. Sete de dez pessoas detidas por reconhecimento facial no Maracanã foram erro da máquina.

Toda tecnologia tem propósito: o punitivismo racista no reconhecimento facial

Para a pesquisadora e mestra em Direito, Gabriela Ramos, quando se fala de tecnologia, é preciso partir do pressuposto que nenhuma delas “surge aleatoriamente do nada”. Mas, são criadas com algum propósito atravessado pelas perspectivas de quem as constroem.

“Não existe ciência imparcial. Não podemos normalizar que as tecnologias incrementem a perpetração das violências raciais as quais somos submetidos”. Ela também chama atenção para o direito de imagem. “A gente não é obrigado a ceder nossa imagem para bancos de dados e ainda de organizações públicas”, completa.

Tarcízio Silva é autor do livro “Racismo algorítmico: inteligência artificial e discriminação nas redes digitais”, e pesquisador da Fundação Mozilla. Para ele, diversas tecnologias vistas como inovação foram criadas para controle de cidadãos, sua movimentação no espaço ou mobilidade social. “A decisão por mais vigilância como reação a problemas de segurança pública tem terreno fértil em países construídos através da escravidão. As instituições policiais no país foram organizadas desde seu início para perseguir pessoas negras”, explica.

Tarcízio Silva é pesquisador e autor do livro “Racismo algorítmico: inteligência artificial e discriminação nas redes digitais” – Imagem: Arquivo Pessoal

Dessa forma, o Brasil se mantém no topo do ranking das maiores populações penitenciárias do mundo, sem nem mesmo terem sido julgadas ainda. E essa população, alerta, tem se tornado alvo de experiências de coleta de dados biométricos e genéticos.

O pesquisador afirma que tecnologias com qualquer tipo de automatização de processos são muito imprecisas, mas são aceitas socialmente porque as vítimas da violência do Estado são, sobretudo, pessoas negras.

O sistema que garantiu 77 prisões durante o Carnaval de Salvador alertava os policiais quando o grau de semelhança entre o foragido e o pedestre era superior a 90%. No entanto, outra preocupação de Tarcízio, é o desrespeito dos policiais ao protocolo, independente da precisão ou não da análise de reconhecimento. Para exemplificar, um estudo realizado em Londres mostrou que era comum “oficiais de rua não esperarem pelo processo de decisão na sala de controle – um claro exemplo de presunção em favor da intervenção”.

Outro estudo, realizado pelas pesquisadoras canadense e etíope Joy Buolamwini e Timnit Gebru em 2018, apontou que a ferramenta apresentava maior índice de falibilidade sobre rostos de mulheres negras em relação ao de homens brancos. Já em 2019, no Brasil, a Rede de Observatórios de Segurança monitorou casos de prisões realizadas com o uso de reconhecimento facial e identificou que 90,5% das pessoas presas eram negras.

Por que as autoridades insistem?

Com tantos erros, o que justifica a insistência das autoridades em ampliar seu uso, até mesmo como propaganda eleitoral? A defesa do sistema rendeu resultados positivos para candidatos a prefeitos das capitais nas últimas eleições. Uma pesquisa realizada por Paulo Victor Melo mostrou que de 26 prefeitos de capitais eleitos em 2020, 17 apresentaram propostas que preveem o uso das tecnologias de informação na segurança pública.

Para Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS), o que influencia esse cenário é a crença na neutralidade da tecnologia e que ela pode trazer soluções fáceis para problemas complexos, como a criminalidade.

Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS) – Imagem: Reprodução IRIS

Já Tarcízio defende que a insistência no uso de reconhecimento está arraigada na percepção cultural do privado em prioridade ao público, o que leva a tornar o espaço público um ambiente de suspeição generalizada.

“É preciso lembrar que existe direito à privacidade ainda que em âmbito público, ainda para aqueles sujeitos que cometeram algum crime”, ressalta Gabriela. “A gente não fez nenhum acordo com a segurança pública ou com o Estado para ceder nossa imagem”.

A advogada traz para a reflexão a necessidade de observar quem está por trás da criação e venda desses equipamentos para administração pública. “O sistema penitenciário vem sofrendo um processo de terceirização. O que gera uma demanda para iniciativa privada, que normalmente está relacionada com sujeitos investidos de poder público”, pondera.

É melhor que o reconhecimento fotográfico?

Dados de dois relatórios formulados pela Defensoria Pública do Rio de Janeiro com o Colégio Nacional de Defensores Públicos Gerais publicados em 2021 apontam que de 2012 a 2020 foram realizadas ao menos 90 prisões injustas baseadas em reconhecimento fotográfico no país. Desse total, 81% dos identificados eram pessoas negras.

Dois casos se tornaram emblemáticos no ano passado. O influenciador Chavoso da USP, que teve sua foto incluída em uma lista de reconhecimento de suspeitos em um inquérito policial. E o ator Michael B. Jordan, que aparece em um catálogo de suspeitos de uma chacina em Fortaleza.

A partir daí, um dos argumentos explorados em defesa da tecnologia, é que substituiria esse método, que também já se provou falho. O argumento ganha força, explica Fernanda, devido ao senso comum de que a tecnologia seria mais “objetiva” em sua atuação, pois não seria capaz de ser preconceituosa.

“Essa visão deixa de lado que a tecnologia continua sendo feita por humanos. Ainda que de forma não intencional, racismo e outras formas de preconceito podem ser incorporadas no funcionamento da máquina”, avalia a coordenadora do IRIS.

“Banimento global do reconhecimento facial é uma luta pelo futuro”

A defesa pelo banimento global do reconhecimento facial vem ganhando força ao redor do mundo. Em 2021, diversas organizações assinaram a “Carta aberta para banimento global de usos de reconhecimento facial e outros reconhecimentos biométricos remotos que permitam vigilância em massa, discriminatória e enviesada”. O documento é resultado da campanha “Ban biometric surveillance”.

Campanhas globais lutam pelo fim do uso de programas para reconhecimento facial – Imagem: Malkia Devich-Cyril

Existem também campanhas locais, como “Tire Meu Rosto da Sua Mira” ou o protocolaço “#SaidaMinhaCara”. Para Tarcízio, se trata de uma luta pelo próprio futuro. Entre casos extremos do seu uso ao redor do mundo, o pesquisador cita seu emprego para punir mulheres que não usam hijab no Irã, para perseguir a população palestina no apartheid israelense ou expor dados sensíveis de turistas na Coreia do Sul.

Fernanda concorda. Para ela, mesmo com eventuais “melhorias técnicas”, enquanto o racismo estrutural permear a sociedade, incluindo o sistema penal, não é possível utilizar reconhecimento facial para fins de segurança pública.

E se o assunto é investimento em vigilância na segurança pública, Gabriela apresenta outra provocação: por que que não se tem o mesmo investimento e defesa política para colocar câmeras nos uniformes policiais? “Aí estamos falando de controle da ação da administração pública e isso, enquanto cidadãos, nós temos direito de fazer”, finaliza.

Compartilhar

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

plugins premium WordPress