Tecnologias de reconhecimento racial: qual face se busca criminalizar?
Programas de vigilância se espalham por todo o país e revelam o que está por trás do discurso de segurança pública. Confira em novo artigo do especial “Algo de novo sob o sol? Direito à Comunicação no primeiro ano do atual governo Lula”
Carnaval de Salvador, 2019. No acesso ao circuito, postos de controle da Polícia Militar revistavam os foliões. De longe, se ouvia a banda Pagod’art “quebrando tudo” com clássicos “das antigas”: “Eu não aguento mais, vou desabafar, embaçaram na quebrada, tá difícil de aturar. Invadiram o nosso gueto, tiraram a paz e o sossego. Toda noite, todo dia… to-to-tome, tome baculejo”. Então, naquele momento, um indivíduo foi identificado pelo sistema de reconhecimento facial como um foragido da justiça. Era a estreia do uso desta tecnologia de vigilância na Bahia (antes utilizada em poucos estados), que, em pouco tempo, se difundiu por todo o Brasil.
O “sucesso” da operação foi comemorado pelo então secretário de Segurança Pública da Bahia, Maurício Barbosa. Holofotes e câmeras de todos os meios de comunicação se voltaram para a promoção do secretário e sua tecnologia inovadora. Já as câmeras usadas para reconhecimento facial nunca alcançaram o rosto de Maurício Barbosa. Suspeito de diversos crimes, em 2020 o então secretário foi acusado pela Polícia Federal de integrar uma quadrilha que negociava sentenças judiciais, em um esquema que envolvia desembargadores e policiais. Branco, ele nunca foi reconhecido pela tecnologia que ajudou a implementar, tampouco preso. Sua “punição” foi a exoneração da secretaria – após a poeira baixar, Barbosa voltou a ocupar cargos públicos.
Também investigado pela Operação Faroeste como integrante da quadrilha, o então presidente do Tribunal de Justiça da Bahia, o desembargador Gesivaldo Britto, nunca dormiu uma noite sequer na prisão. Sua punição foi o afastamento do cargo e posterior aposentadoria compulsória por idade, em 2021. Portanto, assim como o ex-secretário de Segurança Pública, Gesivaldo e outros juízes que se tornaram réus podem curtir o carnaval de Salvador tranquilamente, sem o risco de serem identificados pelas câmeras de vigilância, muito menos de serem abordados ou constrangidos pela polícia.
No Brasil, suspeitos e criminosos brancos e ricos não costumam estar na mira. Podem ter o helicóptero apreendido com 450 kg de pasta base de cocaína, que sua identidade não irá parar no banco de dados usado pelas polícias. Podem formar quadrilhas e receber escolta de policiais militares para assassinar indígenas, com o objetivo de grilar suas terras. Podem fraudar empresas e provocar demissões em massa. Podem causar desastres capazes de destruir cidades, rios e vitimar milhares de pessoas.
Então, para que(m) servem as tecnologias de vigilância que prometem combater a criminalidade? De acordo com a Rede de Observatórios da Segurança, 90% das prisões realizadas a partir do reconhecimento facial em 2019 tinham como alvo pessoas negras. A pesquisa divulgada no final de 2019 utilizou dados de cinco estados de três regiões do país: Bahia, Rio de Janeiro, Santa Catarina, Paraíba e Ceará.
De acordo com Paulo Victor Melo, professor e pesquisador de Comunicação, esse tipo de tecnologia é uma atualização sofisticada de ferramentas construídas para segregar, vigiar e controlar corpos que historicamente foram vistos como corpos perigosos. Como exemplos, Paulo Victor cita a marcação em brasa dos negros escravizados no Brasil, como forma de destacar a propriedade dessa população, além do uso do telégrafo por escravocratas para reconhecer escravizados em fuga. O pesquisador afirma que o uso da tecnologia de reconhecimento facial é “uma modernização desses instrumentos utilizados para alijar a população negra dos espaços públicos e submetê-la ao aprisionamento”.
Errar é “humano”
“Você foi reconhecido por um sistema de reconhecimento facial que dificilmente erra”. Essas foram as palavras de um policial militar de Sergipe durante abordagem ao personal trainer João Antônio Bastos. O jovem foi algemado e conduzido pela polícia, em abril deste ano, sob o olhar de milhares de torcedores que acompanhavam uma partida de futebol no estádio Batistão, em Aracaju. Já numa sala, os policiais reconheceram o erro que confundiu João com um suspeito.
Publicamente, a Polícia Militar de Sergipe disse que a abordagem foi feita dentro do “procedimento padrão” e tentou minimizar a gravidade da situação ao informar que, no mesmo dia, houve uma prisão em flagrante a partir do uso de reconhecimento facial. Desta prisão, porém, não se tem notícias para além da afirmação oficial da PM.
O cientista político Pablo Nunes explica que a metodologia usada para implementação da tecnologia de reconhecimento facial utiliza banco de dados criados por humanos, que “ensinam” a máquina a fazer associações a partir do que foi utilizado como referência para rostos humanos. Ou seja, o processo é enviesado desde sua origem. “Boa parte desse banco de imagens que foram utilizadas para o algoritmo entender o que era um padrão de rosto humano foi formado por imagens de pessoas brancas. A partir desse treinamento, o algoritmo entendeu que o padrão do rosto de uma pessoa branca era o padrão do rosto humano”, explica Pablo. Ele cita como exemplo a categorização criada pelo Google, em 2015, cujos algoritmos reconheciam rostos de pessoas negras como sendo de gorilas.
De acordo com Pablo, que coordena o Centro de Estudos de Segurança e Cidadania, a forma como a tecnologia foi construída, desde a sua compreensão teórica, até a sua utilização, reproduz os vieses da sociedade. “O algoritmo é construído em uma sociedade racista e, por ser estrutural, o racismo também se expressa nesses artefatos tecnológicos que a sociedade produz”, afirma.
Assim como as balas perdidas têm endereço definido, os “erros” cometidos pela tecnologia de reconhecimento facial também costumam ter o mesmo alvo. Dois relatórios elaborados pela Defensoria Pública do Rio de Janeiro (DPRJ) e pelo Colégio Nacional de Defensores Públicos Gerais (Condege) revelam que, entre 2012 e 2020, ao menos 90 pessoas foram presas após serem identificadas erroneamente em reconhecimentos fotográficos. Os estudos apontam ainda que em 81% dos casos as vítimas eram pessoas negras.
Para Paulo Victor Melo, o reconhecimento fotográfico, instrumento largamente utilizado em delegacias de todo o país, é uma das tecnologias de continuidade da lógica escravocrata e anterior ao reconhecimento facial. “Findo o período oficial da escravidão, os mecanismos de vigilância e classificação precisaram ser atualizados. É aí que entra o reconhecimento fotográfico, que tem no reconhecimento facial a sua sofisticação. Portanto, se já temos uma série de problemas com o reconhecimento fotográfico, eles apenas se agravam agora”, enfatiza.
Quando a população negra paga a conta
Em 2023, o Brasil registrou 39,5 mil mortes violentas, de acordo com o Monitor da Violência do Fórum Brasileiro de Segurança Pública da Universidade de São Paulo. As altas taxas de homicídio do país colocam a segurança pública no centro do debate, sendo comum o uso eleitoral dessa pauta, com “soluções fáceis” buscando seduzir parte do eleitorado.
Segundo a advogada e educadora popular Horrara Moreira, a narrativa de que as câmeras de reconhecimento facial trazem mais segurança é uma construção midiática. “Se um computador decidir que você é suspeito, que você é culpado, como é que você vai provar o contrário? Se o computador vai decidir quem é suspeito e quem é criminoso, quem é essa pessoa? Que cor ela tem? Onde ela mora? O que que ela faz?”, são questões trazidas por Horrara para afirmar que “a população sabe que ela não estará mais segura por conta do reconhecimento facial”.
A advogada destaca o SmartSampa, programa que prevê a instalação de 20 mil câmeras de reconhecimento facial na cidade de São Paulo, adicionadas a outras 3,5 mil já em funcionamento. “Normalmente elas estão instaladas em regiões periféricas e em regiões da cidade que concentram uma violência contra pessoas pobres, pessoas em situação de rua, contra pessoas que estão em dependência química”, afirma Horrara. Ela destaca o caráter eleitoreiro do programa “tecnosolucionista”, que traz segurança a uma parcela da sociedade e transforma outra em potenciais suspeitos e criminosos.
O SmartSampa foi questionado pelos movimentos sociais, que alegam violações dos direitos humanos a partir do uso do videomonitoramento e questionam a eficácia do programa. Em nota, a campanha Tire Meu Rosto da Sua Mira reforçou o caráter racista do programa, que ratifica um modelo de segurança voltado ao encarceramento em massa da população negra. A campanha também criticou o “absurdo investimento” estimado em R$ 118 milhões anuais, de acordo com a Prefeitura de São Paulo.
Segundo estudo desenvolvido pelo Panóptico, atualmente estão sendo executados 225 projetos que utilizam reconhecimento facial no Brasil. Na Bahia, reportagem da Intercept Brasil aponta que cada uma das 760 prisões decorrentes do reconhecimento facial custou em média R$ 875 mil. Já em Goiás, cidades que sequer possuem rede de esgoto receberam a tecnologia de segurança ao custo de mais de R$ 30 milhões. A série “Quem paga a conta?”, produzida pela Intercept, traz alguns casos que revelam o quanto esse sistema se tornou um “bom negócio” para empresários e gestores públicos.
Pioneira na implementação da tecnologia de reconhecimento facial, a Bahia não apresenta bons números relacionados à redução da violência. Ao contrário, em 2023 o estado se manteve como “campeão” nacional de mortes violentas, pelo quinto ano consecutivo. A Bahia também é o terceiro estado em casos de feminicídio, e Salvador é a quarta, dentre as capitais, com registros de mortes violentas contra pessoas LGBTQIA+.
Apesar dos altos índices, o estado baiano só resolve cerca de 17% dos crimes de homicídio (dados de 2022). Nesse sentido, o cientista político Pablo Nunes chama a atenção para a necessidade de criação de um Banco Nacional de Indicadores Criminais, para qualificar as investigações, além do uso de tecnologias que permitam rastrear armas e munições. “Existem tecnologias simples de gestão e controle desse armamento, o que poderia contribuir com a segurança pública. E ao reduzir os homicídios, a gente tem um impacto importante para a população negra”, afirma Pablo.
Durante o governo de Jair Bolsonaro (PL), cerca de 1,5 milhão de novas armas foram registradas no país. O aumento teve relação direta com a campanha pró-armamentista liderada pelo ex-presidente, com a flexibilização de regras para aquisição de armas, incluindo registros de Colecionadores, Atiradores Desportivos e Caçadores (CACs), e ampla publicidade na internet, a exemplo da empresa Taurus que, por meio do Instagram, anunciava armas de fogo.
Em setembro de 2023, o Tribunal de Justiça de São Paulo ordenou a proibição de “anúncios publicitários de armas”, considerando o Estatuto do Desarmamento (Lei 10.826/2003) que veda a publicidade para venda de armamentos, exceto em publicações especializadas. O processo que resultou na retirada dos anúncios da Taurus ocorreu a partir de uma ação apresentada pelo Intervozes, pelo Instituto Brasileiro de Defesa do Consumidor (Idec) e pela Comissão de Defesa dos Direitos Humanos Dom Paulo Evaristo Arns. “As vítimas de violência armada são, em sua maioria, pessoas negras. Também observamos um aumento nos crimes contra as mulheres envolvendo armas de fogo”, destacou, em nota, o Intervozes.
Banimento
Em maio de 2024, o governador de Sergipe anunciou a suspensão do uso do sistema de reconhecimento facial no estado, em razão dos sucessivos erros que tiveram repercussão nacional. A decisão converge com os pedidos de organizações e movimentos sociais que defendem o banimento da ferramenta: erros sistemáticos, baixa eficiência, alto investimento e padrões racistas são os principais argumentos utilizados.
No entanto, as tendências regionais e federal apontam para a ampliação do uso da tecnologia de reconhecimento facial. No Congresso, o Projeto de Lei 2338/2023, que dispõe sobre o uso da Inteligência Artificial, traz impactos na segurança pública ao ampliar a permissão da utilização de tecnologias de reconhecimento facial. Em nota, a Coalizão Direitos na Rede mostrou preocupação com o texto do projeto, que também traz “disposições surpreendentemente permissivas em relação ao uso de sistemas de armas autônomas”. De acordo com as organizações da campanha Tire Meu Rosto Da Sua Mira, em nota de apoio ao parecer favorável do deputado Miguel Rossetto ao Projeto de Lei 16/2023, que dispõe sobre a restrição do uso de tecnologias de reconhecimento facial pelo Poder Público no Estado do Rio Grande do Sul, “a vigilância constante, massiva e indiscriminada, por si só, representa uma violação dos direitos e liberdades das pessoas e da coletividade”.
E quando o assunto é reconhecimento facial, o discurso da extrema-direita encontra abrigo também no governo Lula (PT). Vale lembrar, por exemplo, que uma das medidas anunciadas pelo Ministro da Justiça, Ricardo Lewandowski, após a fuga de encarcerados do presídio de Mossoró, no início de 2024, foi justamente o uso de reconhecimento facial nas cinco unidades prisionais de âmbito federal do país.
Segundo Pablo Nunes, no Brasil existe uma esquerda punitivista que quer “que ocorram prisões a qualquer custo, mesmo com o uso de tecnologias falhas, caras, mas que cooperam com a tentativa de aumentar a massa carcerária”. Para o pesquisador, a esquerda não possui projetos na área da segurança pública que conquistem corações e mentes, fazendo com que “essa esquerda punitivista se alie ao ideário da extrema-direita, no que se refere ao aumento da vigilância da população, a custos de direitos e também de discriminação algorítmica”.
Essa avaliação também é percebida por movimentos sociais que citam que boa parte dos projetos de reconhecimento facial são apresentados por representantes do campo progressista. Um “castelo pintado de branco” –como versava a banda Fantasmão– que vai revelando as profundas camadas que estão por trás das câmeras.
Alex Pegna Hercog é baiano, comunicador popular e membro do Intervozes – Coletivo Brasil de Comunicação Social.