Favelas precisam de justiça racial, não de reconhecimento facial

LUZ, CÂMERA, OPRESSÃO

Favelas precisam de justiça racial, não de reconhecimento facial

por Gabrielle Alves, Isabela de Araújo Santos, Renata Martinelli Rodrigues e Thiago Nascimento
9 de junho de 2022
compartilhar
visualização

As soluções estritamente tecnológicas não levam em consideração um problema estrutural que também afeta o desenvolvimento de tecnologias de vigilância: o racismo

Promessa de mais segurança e inovação nas políticas públicas ou solução para o apaziguamento de conflitos sociais. São diversas as justificativas para a utilização de tecnologias de monitoramento e de vigilância, como câmeras e softwares de reconhecimento facial. Contudo, no Brasil e em outros contextos marcados por extremas desigualdades raciais, étnicas e de gênero, grupos historicamente vulnerabilizados estão mais expostos às consequências dos erros cometidos por esses softwares. Além disso, estão sujeitos à utilização dessas tecnologias como ferramentas de controle violento da sua comunidade, de normalização da hiper vigilância e de seletividade penal.

Apesar do alerta por parte de especialistas sobre os seus riscos e consequências discriminatórias, a adoção desse tipo de tecnologia por órgãos de segurança pública tem se expandido no Brasil. No estado do Rio de Janeiro, 80% dos erros no processo de identificação e prisão de suspeitos por reconhecimento facial são de pessoas negras. Desprezando os riscos da adoção desse tipo de tecnologia, em janeiro de 2022, a Secretaria Estadual de Polícia Militar do Rio de Janeiro apresentou um termo de referência visando a contratação emergencial de uma empresa para a instalação de 22 câmeras de reconhecimento facial no entorno da comunidade do Jacarezinho, na Zona Norte da cidade do Rio de Janeiro, marcada por um histórico de violência policial.

O lançamento do edital se insere em um contexto de implementação de uma série de ações do estado do Rio de Janeiro, sintetizada no programa Cidade Integrada. Em tese, a iniciativa engloba serviços sociais e obras de infraestrutura para as comunidades. Na prática, as iniciativas reproduzem o modelo de ocupações militares em regiões predominantemente negras e de baixa renda, que tem produzido consequências desastrosas para os direitos humanos dessas populações. O Programa se inspira nos moldes das fracassadas Unidades de Polícia Pacificadoras (UPPs), instituídas para os eventos da Copa do Mundo (2014) e das Olímpiadas no Rio de Janeiro (2016), e na intervenção federal instituída em 2018. Nesse período, ficou evidente o poder das Forças Armadas na produção, intervenção e controle do espaço urbano carioca.

Em estudo produzido pelo projeto Panóptico, do Centro de Estudos de Segurança e Cidadania (CESeC), e intitulado “Um rio de olhos seletivos: uso de reconhecimento facial pela polícia fluminense”, pesquisadores avaliaram que o termo de referência de contratação apresentado pelo estado do Rio possui omissões metodológicas – como a ausência do período de execução e falta de diálogo com os moradores –  além arbitrariedade quanto ao direito de acesso às imagens produzidas pelas câmeras. Já que sua finalidade será somente de uso repressivo e para fortalecer a produção de provas de inocência policial. Os dados não serão colocados à disposição das eventuais vítimas de excessos e violações por parte das forças de segurança repressivas do Estado.

Dessa forma, usar o Jacarezinho – favela que em maio de 2021 vivenciou a maior chacina da história do Rio de Janeiro, com 28 mortes resultantes de uma incursão policial em plena pandemia de Covid-19 – como laboratório para tais tecnologias reflete o vício do Poder Público na denominada “guerra às drogas”, que estigmatiza e desumaniza a juventude negra, culminando em casos como o da jovem Kathlen Romeu, que estava grávida de três meses quando foi morta com um tiro de fuzil no peito disparado por um policial militar do Rio de Janeiro.

O uso do reconhecimento facial pode abrir margem para o início de uma cultura de policiamento preditivo, comum nos Estados Unidos e definido pela coleta e análise de dados de fontes diferentes, utilizando-se dos resultados para antecipar, prevenir e responder a um suposto crime futuro. Em um país já marcado pela segregação espacial e pelo monitoramento repressivo da população negra e da classe trabalhadora, esse tipo de precedente deve ser barrado, já que coloca em xeque garantias fundamentais como a presunção de inocência e a legalidade das investigações, bem como o direito à privacidade, à igualdade de tratamento e ainda ameaça o exercício do direito de protesto.

Experiências internacionais relacionadas ao policiamento preditivo demonstram que a identificação algorítmica é falha, não possui comprovado impacto na redução de crimes e dilui a responsabilidade dos agentes envolvidos, já que as decisões relacionadas à abordagem e tipificação ficam delegadas aos dispositivos de reconhecimento facial.

reconhecimento
(Créditos: Unsplash)

Ademais, as soluções estritamente tecnológicas não levam em consideração um problema estrutural que também afeta o desenvolvimento de tecnologias de vigilância: o racismo. De acordo com o 15º Anuário Brasileiro de Segurança Pública, em 2020, 66,3% das pessoas encarceradas no país eram negras. Das 6.416 vítimas mortas pelas forças policiais naquele ano, 78,9% eram negras.A estigmatização que já ocorre com as favelas e seus moradores contribui para a forma como o Estado age nesses territórios, principalmente pela forma como a mídia hegemônica retrata esses locais. O racismo, portanto, ganha a roupagem do racismo algorítmico quando os dados e a programação enviesados – responsáveis por alimentar mecanismos de inteligência artificial – possuem a predisposição para apontarem, por exemplo, pessoas negras como mais propensas a cometerem crimes, uma nítida violação do seu direito de presunção de inocência.

Em sua obra Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais (2022), Tarcízio Silva destaca como a utilização do reconhecimento facial atua em favor de um sistema cujo fim é o encarceramento em massa da população negra por meio da falsa identificação de suspeitos. Em 2019, por exemplo, uma mulher negra inocente foi presa após ter sido erroneamente identificada como foragida por câmeras de reconhecimento facial instaladas em Copacabana. Os erros já são consideráveis no reconhecimento fotográfico, conforme aponta estudo de 2022 da Defensoria Pública do Rio de Janeiro (DPRJ) ao identificar que, no estado, pessoas passam em média 1 ano e dois meses presas injustamente por erros no uso do reconhecimento fotográfico.

A instalação de softwares de monitoramento contínuo também afeta diretamente o direito à autodeterminação informativa, ou seja, a garantia do controle dos cidadãos sobre suas próprias informações, um dos alicerces da proteção de dados pessoais, de acordo com a Lei Geral de Proteção de Dados (Lei nº 13.709/18) – garantias e mecanismos de salvaguardas são indispensáveis a qualquer atividade que utiliza informações pessoais, mas especialmente essenciais para projetos que incluem o uso de tecnologias como reconhecimento facial, e vem sendo afirmadas não apenas pela aplicação concreta da Lei Geral de Proteção de Dados, mas também por instituições como o Supremo Tribunal Federal. Ao submeter o Jacarezinho à adoção de tecnologias com alto potencial discriminatório, sem qualquer mecanismo de salvaguarda ou de prestação de contas, o Poder Público propõe uma solução experimental, sem eficácia comprovada e cuja legalidade é altamente questionável.

Uma série de organizações e especialistas brasileiros têm se mobilizado para frear o uso de tecnologias que violam direitos individuais e colocam como alvo, desproporcionalmente, determinados grupos de indivíduos. A Rede de Observatórios da Segurança, O Panóptico, a Coalizão Direitos na Rede, a campanha Ban Biometric Surveillance, e os pesquisadores Nina da HoraTarcízio Silva e Pablo Nunes, entre outros, analisam o tema continuamente e chamam atenção para os outros riscos do uso indiscriminado do reconhecimento facial. Além disso, hoje há uma mobilização da sociedade civil, denominada Tire Meu Rosto da Sua Mira, a fim de banir o reconhecimento facial para fins de segurança pública. Lançada por mais de 30 organizações – incluindo a Coalizão Direitos na Rede – no Fórum da Internet no Brasil (FIB12), a mobilização tem o apoio de outras iniciativas que requerem também o banimento do uso dessas tecnologias, a exemplo do Projeto de Lei nº 824/2021, que se encontra em tramitação na Câmara Municipal do Rio de Janeiro.

Na escala global, a campanha para parar os robôs assassinos (Stop Killer Robots) busca proibir o desenvolvimento de armas autônomas letais, que fazem uso de sensores e de mecanismos de reconhecimento facial e de voz para selecionar e atirar contra alvos sem intervenção humana. Tecnologias como essas vêm sendo desenvolvidas ao redor do mundo e podem ser empregadas não apenas em situações definidas pelo Direito Internacional como conflito armado, mas também em situações de segurança pública.

Em um cenário em que essas tecnologias proliferam em locais já marcados pela violência policial e pela ausência seletiva de políticas sociais, como o Jacarezinho – território com um dos piores Índices de Desenvolvimento Humano Municipal (IDH) do Rio de Janeiro, estarão particularmente vulneráveis. Por isso, é importante frear projetos baseados em tecnologias com alto potencial discriminatório, que potencializam a capacidade do Poder Público de ferir a dignidade humana e ameaçar direitos humanos básicos, como o direito à liberdade e até mesmo o direito à vida. A decisão sobre quem deve ser considerado suspeito ou continuar em liberdade não deve ser delegada às máquinas.

 

Gabrielle Alves é pesquisadora na Plataforma Cipó. Isabela de Araújo Santos e Renata Martinelli Rodrigues são pesquisadoras na Bioni Consultoria. Thiago Nascimento é co-fundador do LabJaca.



Artigos Relacionados

DEMOCRACIA AMEAÇADA

Três dimensões para pensar a eleição mais importante da Nova República

Online | Brasil
por João Rafael Gualberto de Souza Morais
Qual é o plano?

A guerra às drogas precisa parar. Os presidenciáveis estão preparados para essa conversa?

por Juliana Borges
O AGRO NÃO PRODUZ COMIDA, PRODUZ FOME

Cozinhas Populares apontam caminhos para a soberania alimentar

por Campanha Periferia Viva
AUDIOVISUAL

Kleber Mendonça Filho: “O que é a cultura no governo Bolsonaro? Não é”

Online | Brasil
por Carolina Azevedo
DEUS, PÁTRIA E FAMÍLIA

Qual o futuro do bolsonarismo?

Online | Brasil
por Vários autores
O AGRO NÃO PRODUZ COMIDA, PRODUZ FOME

A história que o agro não conta: violência, fome e devastação

por Mariane Martins
DEUS, PÁTRIA E FAMÍLIA

Estratégias discursivas do candidato Bolsonaro

Online | Brasil
por Vários autores
ELEIÇÕES PARA O SENADO

O sprint de Damares Alves

Online | Brasil
por Marina Basso Lacerda