(In)visibilidades na rede: discurso de ódio e censura das plataformas
Plataformas permitem discursos violadores de direitos e censuram grupos marginalizados, mas a internet é também um espaço de disputa e de resistência
O debate público que ocorre no espaço digital é atravessado pelas regras de termo de uso e critérios nem sempre explícitos das plataformas digitais. A concentração de poder e do fluxo de informação em monopólios digitais alarma ativistas e pesquisadores que veem na falta de regulação das plataformas um risco à democracia, além da conivência com a desinformação e o discurso de ódio, que também é um problema que põe em xeque a permanência de atores políticos no debate em rede.
A internet é um espaço de disputa e nem todas as vozes, ou perfis, têm o mesmo alcance. Em se tratando das plataformas de mídia social, especialmente, esses critérios não são explícitos para os usuários. Em 2021, um exemplo foi a mobilização de ativistas e jornalistas da Palestina que identificaram que o Facebook (atualmente, Meta) estava removendo o conteúdo pró-palestino da plataforma. Uma situação inusitada, contudo, foi quando, já em 2022, a Meta anunciou que permitiria, “excepcionalmente”, discurso de ódio contra soldados e lideranças russas, em razão da guerra entre Rússia e Ucrânia, assim como elogios ao batalhão de extrema-direita Azov. Na mesma esteira, o Twitter liberou os usuários a fazerem ameaças de morte contra russos em sua plataforma. Nessas ocasiões, a capacidade das plataformas digitais em orientar o fluxo de informações fica evidente.
O pesquisador Luiz Rogério Lopes Silva, doutorando em Gestão da Informação pela Universidade Federal do Paraná (UFPR), identifica discurso de ódio como “a manifestação, explícita ou velada, da linguagem pejorativa, discriminatória, humilhante e excludente produzida, compartilhada e mantida por um agente odiador, e direcionada a um destinatário-vítima na internet”.
Denise Carvalho, pesquisadora de pós-doutorado do Programa de Pós-graduação em Estudos da Mídia, da Universidade Federal do Rio Grande do Norte (UFRN), entende que “as plataformas são ambientes de interação entre pessoas que pensam e que compartilham valores em comum e opiniões em comum”. Para ela, “algumas pessoas se sentem seguras por estarem dentro de uma comunidade, dentro de um grupo específico que preenche de uma maneira homogênea”. Por essa razão, “é possível que as pessoas se sintam mais à vontade para expor tudo que elas pensam, tudo que elas acham”, argumenta.
O discurso de ódio não é um conceito universal, de acordo com Luiz Rogério, que há seis anos investiga o fenômeno. O pesquisador, atualmente integrante do Grupo de pesquisa Infomedia Information & Media lab (InfoMedia) da UFPR, destaca que é necessário diferenciar o ódio – como sentimento – da prática: “O problema está quando o ‘ódio’ alcança o status de discurso ou ação, tomando forma de preconceito, discriminação, violência e funcionando como força motivadora para que as pessoas se comportem de maneira prejudicial umas com as outras”. Segundo ele, neste ponto, “a prática odienta não pode ser encarada como um mero estado psíquico, psicológico e subjetivo, mas como um ato intencional pelo qual um sujeito se refere afetivamente para um correlato objetivo, em geral, provocar danos (físicos, psicológicos ou sociais)”, explica.
A visibilidade é uma armadilha?
O filósofo francês Michel Foucault investigou, dentre outras coisas, a dinâmica entre ver e ser visto na sociedade. Para ele, o poder não podia mais ser visto, porque era ele quem nos observava. No contexto da internet, diversos movimentos e ativistas se ampliaram a partir da possibilidade de ser visto e ouvido como um ator no debate público.
Lori Regattieri, pesquisadora sênior na área de inteligência artificial na Fundação Mozilla, investiga os regimes de visibilidade no ecossistema de propaganda participativa, que engloba plataformas de mídias sociais e sites, estudando como a mídia tradicional se entrelaça nesse ecossistema. A pesquisadora enxerga semelhanças entre a mídia tradicional e as big techs, à medida que ambas funcionam com “poucos players”, e são marcadas pela concentração de poder. As concessões públicas de televisão e rádio, no Brasil, estão concentradas em poucas famílias, e o fluxo de informação e interação na internet, em poucas plataformas.
Para Regattieri, “historicamente, nunca tivemos espaço na mídia comercial para essas vozes plurais de populações marginalizadas”. E essa tendência permanece com as plataformas. Contudo, existem formas de subverter a lógica das plataformas. Como exemplo, a pesquisadora cita a atuação de movimentos indígenas e de justiça climática, em agosto e setembro de 2021, durante a votação do Marco Temporal no Supremo Tribunal Federal. “O ativismo está um pouco hackeando e promovendo parcerias que, claro, não são pagas, mas que dão muito trabalho e são feitas nos bastidores com influenciadores. É uma estratégia que tem uma demanda de recursos humanos bastante alta, porque é fruto de muita mobilização”.
A visibilidade nem sempre é positiva para todos os atores políticos no debate em rede. A exemplo de jornalistas negras e indígenas ofendidas quando se posicionam contra o racismo, como indicado na pesquisa realizada pelo InternetLab e a Revista AzMina, junto ao Volt Data Lab e ao Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD), publicada em janeiro de 2022. Sobre o assunto, a diretora do InternetLab, Fernanda Martins, adverte: “Por um lado, a gente tem esse aumento da representatividade; por outro, a gente também observa que há muitos ataques nas redes. Há muita violência direcionada a alguns grupos sociais. E não é a qualquer grupo. São grupos que já são historicamente marcados por desigualdade, como pessoas negras, LGBTQIA+ e mulheres etc.”.
Meta censura o termo “sapatão”
Em um levantamento realizado pela Coding Rights, uma organização em defesa dos direitos humanos no desenvolvimento, regulação e uso das tecnologias que propõe uma perspectiva feminista interseccional, publicado em agosto de 2020, foi detectado que as palavras “sapatão” e “sapatona” sofriam censura no Instagram e no Facebook, ambas plataformas pertencentes à empresa Meta. A pesquisa, intitulada “Visibilidade sapatão nas redes”, faz um resgate histórico sobre a invisibilização de mulheres lésbicas. Desde escritoras, poetas, cientistas, tais como Emily Dickinson ou Eleanor Roosevelt, que tanto em vida como após a morte continuaram a ter sua orientação sexual invisibilizada.
Nas plataformas e fora delas, mulheres lésbicas reivindicam os termos “sapatão” e “sapatona”. Joana Varon, diretora-executiva da Coding Rights e coordenadora da pesquisa junto com Ivanilda Figueiredo, defende que os movimentos LGBTQIA+ se reapropriem de termos que eram usados como xingamento. A pesquisadora relata que observou a censura no próprio perfil da Coding Rights no Instagram, quando a organização fez um gif com o desenho de uma sapa, no qual aparecia a palavra “sapatão”. Logo em seguida, o post foi retirado do ar. Para a pesquisadora, trata-se do caso em que “uma ferramenta que inicialmente foi bolada para proteção, funciona apenas para invisibilizar justamente quem se pretende proteger”, explica.
De acordo com o levantamento da Coding Rights, fotos de casamento entre mulheres também foram censuradas no Facebook, além de comentários elogiosos, como “sapatona maravilhosa”, identificados pelo Instagram como homofóbico. Além desses exemplos, existem outros casos de promoção de censura por parte das plataformas e suas “lacunas” na moderação. Ainda em 2020, uma série de organizações e páginas anarquistas foram banidas do Facebook, sob uma falsa equivalência entre organização antifascista e violência fascista. Já em março de 2022, o Twitter atribuiu a usuários denúncias que os mesmos não tinham feito.
“Hamilton, preto zika ultrapassando os branco”
Em 2019, após mais uma vitória do piloto de Fórmula 1 Lewis Hamilton, o quadrinista Gabriel Jardim recebeu uma encomenda de ilustração em homenagem ao piloto. Na imagem desenhada, um menino negro descendo uma ladeira sobre um carrinho de rolimã e, ao fundo, o rosto de Hamilton. A ilustração foi encomendada pela Editora Guará que, ao tentar impulsionar a postagem no Instagram, foi impedida e recebeu o seguinte aviso: “Sua promoção não foi aprovada. Anúncios de vendas de armas não são permitidos”.
A notificação foi uma surpresa para Gabriel Weiner, editor da Guará, que relata que a postagem ficou fora do ar por dois dias, sendo a primeira vez que a editora havia passado por algo desse tipo. Para o ilustrador Gabriel Jardim, “só porque está num cenário de comunidade, favela o Instagram acusou”.
O episódio integra uma longa lista de exemplos nos quais as discriminações são perpetuadas através de automação. No caso relatado, imagens de pessoas negras e o cenário da favela são associados à venda de armas. Fato semelhante já foi percebido no experimento realizado pelo desenvolvedor Bart Nagel, que testou a leitura do recurso de análise de imagem Google Vision: submeteu duas imagens de uma pessoa segurando um termômetro e as diferenciou clareando digitalmente a pele em uma delas. O resultado foi que o Google Vision identificou “mão” e “arma” na imagem da pessoa negra, e “mão” e “ferramenta” na imagem com a mão embranquecida. Esse, como outros casos de racismo algorítmico, são monitorados e relatados pelo pesquisador Tarcízio Silva.
Esse “erro” é muito mais uma parte do sistema de funcionamento do que uma exceção, como nos sugere Ruha Benjamin, em seu livro Race After Technology (2019), ao falar dos glitches (falhas) no design das tecnologias de comunicação. Benjamin pontua que falhas (ou erros, “coincidências”) são consideradas “uma interrupção fugaz em sistema benigno”, e não algo constante e constitutivo da vida social. Ela nos propõe a perceber os glitches como algo entre fugaz e durável, algo entre ódio individual e indiferença institucional, que pode ser uma evidência de como o sistema opera.
Como argumenta Tarcízio Silva, a respeito do experimento de Bart Nagel, da mesma forma que uma inteligência artificial confunde um termômetro com arma na mão de uma pessoa negra, são relatados inúmeros casos de assassinatos cometidos por policiais que se “confundiram” ao ver pessoas negras portando objetos. Isso ocorreu com Gabriel Hoytil Araújo, de 19 anos, assassinado no dia 20 de outubro de 2021, na comunidade do Piolho, zona sul de São Paulo, por carregar uma marmita. Ou com João Victor Dias Braga, de 22 anos, em 2019, que portava uma furadeira. Ou ainda o que aconteceu com Rodrigo Alexandre da Silva Serrano, em 2018, que portava um guarda-chuva.
Para a pesquisadora Denise Carvalho, “Existe uma série de estudos que afirmam que as plataformas podem, sim, reproduzir discriminações que já ocorreram historicamente. Isso acontece porque parte dessas plataformas é constituída de dados construídos a partir de operações, de algoritmos que podem, de certa forma, reproduzir contextos sócio-históricos de exclusão, de opressão, com relação a grupos específicos, a grupos que são mais vulneráveis”.
A moderação de conteúdo: indo além da regulação
A linha entre coibir ou limitar o discurso de ódio ou mesmo censurar a permanência de grupos marginalizados não parece tão tênue. Lori Regattieri acredita que a questão da moderação das plataformas é atravessada pelo aspecto geopolítico. “Essas corporações estão num lugar muito específico do mundo, no norte global. E tudo o que estamos conversando está entrelaçado com questões de ordem jurídica, em plena transformação radical. O monitoramento do conteúdo de dados enquanto um ativo de valor”, disse.
Joana Varon chama a atenção para o fato de que a moderação de conteúdo, o que é identificado como discurso de ódio, o que é censurado, também é atravessado por questões próprias de cada país. “O conceito de liberdade de expressão (nos Estados Unidos) é muito mais extenso do que o conceito que temos no Brasil, que está fixado na Declaração Universal de Direitos Humanos. Nossa liberdade acaba quando começa a ofender o outro. Aqui nós temos o crime de racismo e de LGBTfobia, que é equiparado ao crime de racismo. E essas limitações à liberdade de expressão não são consideradas praticamente e historicamente também na forma como essas plataformas moderam conteúdos”.
É preciso considerar os diferentes contextos nos quais os discursos circulam, e nem sempre as plataformas acatam, justamente pelas suas sedes concentradas e amparadas por uma legislação de seu país de origem. “Então, há anos, temos mulheres do movimento feminista, movimento lésbico, sendo atacadas quando denunciam conteúdos lesbofóbicos e misóginos. As plataformas não derrubam esses conteúdos por acreditar que isso é liberdade de expressão”, explana Joana Varon. “Os nossos meios de comunicar passam a ser moderados por esses algoritmos que priorizam determinados formatos. Priorizam no sentido de dar visibilidade. Então a gente tem o problema da desinformação, do discurso de ódio, que, por serem assuntos ‘polêmicos’ causam maior interação”, reforçou Varon.
Uma das soluções possíveis apontadas por Denise Carvalho é a “difusão cada vez maior de novas regulamentações, das que já estão presentes e de novas regulamentações, e um aparato jurídico que seja especializado no ambiente digital, para coibir comportamentos de discurso preconceituoso, de discurso de ódio nesses ambientes”.
Na América Latina, entidades de defesa dos direitos digitais, entre elas, o Intervozes, lançaram em 2019 um documento propondo a regulação democrática das grandes plataformas digitais. Em novembro de 2021, outras organizações se somaram ao debate e lançaram uma declaração sobre a necessidade de transparência dessas plataformas de internet.
Para a diretora do InternetLab, Fernanda Martins, só a moderação do conteúdo não basta. É necessária uma regulação que passe pelo Estado, mas também por pesquisas feitas na academia, pela sociedade civil, que haja um olhar intersetorial para essas questões. “Não tem uma saída específica para todas as plataformas. Então são sempre questões que passam por saídas muito multidisciplinares e com debates que envolvam setores diversos”, pontua.
Regattieri sublinha, ainda, que existe a opacidade da moderação automatizada, mas existem os moderadores humanos e que, inclusive, passam por sofrimento psíquico no trabalho por estar continuamente expostos a um grau elevado de violência. É preciso encarar que a moderação é um sistema bastante complexo de regras, mecanismos e procedimentos. Imagina como uma grande plataforma vai moderar. Milhões de pessoas, em centenas de línguas. O problema é ficar testando possibilidades de moderar conteúdo em escala”.
Ainda sobre moderação de conteúdo, Regattieri explica que, quando um usuário denuncia uma postagem, está, de certa forma, trabalhando pela moderação da plataforma. “A automação e a escala realmente permitem, assim, a manipulação da visibilidade. Qualquer processo que você identifique, seja ele totalmente automatizado ou seja um processo que tenha automação e presença humana, como de anotadores, isso cria um novo regime de visibilidade”, explicou ela. A pesquisadora complementa, indicando que cada uma dessas alterações, como redução de alcance de postagem avaliada como desinformação, é um tipo de “produto” daquela plataforma, mas a maioria é desconhecida por seus utilizadores.
Para as pesquisadoras entrevistadas, a solução não será a mesma em todos os países, nem mesmo para todas as plataformas, inclusive por questões de língua. Especificidades de contexto que não podem ser reproduzidos em larga escala. De todo modo, são necessárias pesquisas sobre como as censuras podem ser furtivas, bem como sobre o funcionamento das mediações algorítmicas nos processos de violência contra grupos marginalizados. A regulação pode ser um caminho, mas não o único.
Isadora Lira é jornalista, doutoranda em Sociologia na Universidade Federal da Paraíba e integrante do Intervozes.