Racismo e outras violências em redes sociais impactam vida das vítimas dentro e fora da internet, aponta estudo

O relatório “Do Meme ao Ódio: Como o Racismo se Manifesta nas Plataformas Digitais” mapeou durante três anos como o racismo está presente no Instagram e Telegram
Imagem: Freepik

Por Karla Souza e Luana Miranda

Nas redes sociais, o racismo não opera à margem, ele circula com força, moldado por estratégias que combinam “humor”, desinformação e desumanização. É o que revela o estudo “Do Meme ao Ódio: Como o Racismo se Manifesta nas Plataformas Digitais”, do Observatório do Racismo nas Redes, iniciativa do Aláfia Lab em parceria com o Laboratório de Humanidades Digitais da Universidade Federal da Bahia (LABHDUFBA). 

A pesquisa mapeou durante três anos como o racismo se manifesta em dois ambientes digitais com dinâmicas distintas: o Instagram, onde há maior exposição e algum nível de moderação; e o Telegram, que opera com menor vigilância, permitindo a proliferação de conteúdos ofensivos em grupos que chegam a reunir até 200 mil membros.

Os dados revelam que, embora operem com estilos diferentes, essas plataformas abrigam discursos racistas organizados, que variam entre o velado e o explícito. No Instagram, os ataques aparecem com camadas de ambiguidade, por meio de emojis, ironias e frases com duplo sentido. 

Já no Telegram, o tom é direto, com conteúdos que naturalizam o racismo, machismo, xenofobia, entre outras violências, se alimentando de uma lógica de engajamento e impunidade. Canais com nomes como “pretokkk” ou “humor negro” disseminam mensagens de ódio por meio de memes, imagens e piadas que visam reforçar estereótipos, atacar religiões de matriz africana e deslegitimar identidades de gênero.

As dimensões do racismo digital

O relatório identificou cinco dimensões principais do racismo digital: aparência, territorialidade, religiosidade, formas de expressão e gênero. A aparência, quando alvo do racismo digital, tem como foco o corpo e os traços físicos das pessoas negras, sendo uma das formas mais explícitas e cruéis de violência nas redes. Os ataques se manifestam por meio de comparações com animais específicos, uso de emojis, memes e gifs com conotações racistas, e na propagação de imagens que reforçam estereótipos negativos. Essas representações associam pessoas negras à criminalidade, falta de higiene ou hipersexualização. Mulheres negras, em especial, são retratadas de forma pejorativa, como dependentes ou indignas.

A categoria territorialidade – segunda analisada pelo relatório – apresenta uma relação entre raça e locais marginalizados, conectando esses espaços a ações e comportamentos pejorativos. Um exemplo citado pelo estudo é a palavra “favelado”, utilizada no Instagram de maneira frequente como um marcador racial e criminal. Essas associações são feitas para justificar a desumanização e o tratamento discriminatório que as pessoas negras sofrem. Uma tentativa de culpabilizar as vítimas.

No caso do Telegram, as manifestações racistas são expostas por meio de mensagens que inferiorizam e menosprezam o Nordeste do país. Mascarados pela falsa ideia de brincadeira, as imagens e memes compartilhados reforçam estereótipos negativos da região que, não por acaso, possui o contingente populacional formado em maioria por pessoas negras e indígenas. A repulsa pelas comidas tradicionais é um dos pontos que surge  para desqualificar a identidade cultural do território. Fotografias de alimentos produzidos com partes menos valorizadas de animais são utilizadas como pretexto para a inferiorização da população.

Em gênero, última categoria descrita pelo documento, os pesquisadores identificaram que a maioria dos ataques são voltados para as mulheres negras, que representam cerca de 60% das vítimas nas redes sociais. As agressões são intersecções de racismo, sexismo e misoginia, e incluem denominações depreciativas e animalização. No Instagram, os comentários racistas associam o cabelo crespo – um dos símbolos da negritude – como algo “ruim” ou que precisa ser “corrigido”. Cenário que permanece no Telegram, onde a maquiagem de mulheres negras é associada a um “disfarce” usado para enganar os homens.

De maneira contundente, o relatório apresenta fatos que evidenciam a ineficiência das Inteligências Artificiais (IAS), aplicadas para monitoramentos de crimes cometidos nos ambientes virtuais. Como forma de atenuar a incidência do racismo, o documento indica a necessidade da moderação humana preparada para identificar o preconceito e a discriminação desfigurados de humor e sátira.


Compartilhar:

plugins premium WordPress