Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

IA generativa reforça racismo algorítmico e aprofunda estigmas na representação de pessoas negras no Brasil

De Hollywood aos algoritmos, estudo revela como desigualdades raciais moldam o acesso, a representação e os resultados das tecnologias

Por Karla Souza e Luana Miranda 

Os Jetsons, animação produzida entre os anos 1960 e 1980, não poderia ter nos preparado melhor para a forma que encaramos a tecnologia no século XXI. Na verdade, poderiam sim! O desenho, que hoje ironicamente é considerado um clássico vintage, colaborou para que as gerações X e Z tivessem, no mínimo, uma imagem positiva sobre viver entre robôs. Era a fantasia de que, com o auxílio da tecnologia, a nossa vida seria mais fácil, com menos trabalho e muito mais divertida. 

O desenho retrata uma família vivendo em 2062, formada por um pai, George, uma esposa – Jane, e seus dois filhos, Judy e Elroy. George, trabalha uma hora por dia, dois dias na semana (aqui, ainda lutamos por uma escala 6×1) e Jane até tem um emprego, mas só aparece no desenho atrelada às atividades do lar, obviamente, com a ajudinha da sua funcionária robô-faz-tudo. Contudo, se olharmos bem para o perfil da família retratada na animação,  entendemos bem quais vidas a tecnologia foi imaginada/fantasiada para atender. 

Os Jetsons eram estadunidenses, brancos, moravam em um apartamento panorâmico e dirigiam seus automóveis voadores por aí, sem medo de serem identificados como criminosos por câmeras de segurança que utilizam reconhecimento facial por inteligência artificial. Mas, calma! “Os Jetsons” são só a minúscula pontinha do gigantesco iceberg submerso nas águas do racismo tecnológico. De fato, o imaginário produzido ao redor da tecnologia, seja de quem a detém, produz ou a utiliza, não comporta ou, pelo menos, não comportava pessoas negras. 

Essa exclusão simbólica de um desenho dos anos 1960 encontra correspondência direta na realidade brasileira atual, onde o acesso à tecnologia segue marcado por desigualdades raciais. Pesquisa do Núcleo de Estudos Raciais do Insper (2024), realizada com o Centro de Gestão e Políticas Públicas, mostra que estudantes brancos têm maior acesso a computadores, internet e laboratórios nas escolas, com diferenças que chegam a 8 pontos percentuais em relação a estudantes pardos e 7 em relação a estudantes pretos. Quando o recorte combina raça, território e rede de ensino, a distância se amplia para 24 pontos percentuais entre um estudante branco da rede privada do Sul e um estudante preto da rede pública do Nordeste. No ensino superior, o aumento da presença de estudantes negros – após a política de cotas – se concentra majoritariamente em instituições privadas e na educação a distância, com menor inserção em cursos de tecnologia e ciências naturais, o que impacta trajetórias profissionais e renda. 

A partir deste contexto, o avanço da inteligência artificial generativa e de sistemas automatizados amplia o debate sobre racismo algorítmico, já que essas tecnologias operam a partir de bases de dados que reproduzem exclusões. Isso resulta, por exemplo, em erros de reconhecimento facial e na produção de imagens que reforçam estereótipos, apontando para a necessidade de mudanças estruturais na forma como esses sistemas são desenvolvidos e regulados.

Assim, a discussão sobre inteligência artificial não pode ser dissociada das estruturas que definem seu desenvolvimento e uso, como aponta o pesquisador Tarcízio Silva, ao destacar que não existe tecnologia neutra, já que todas as etapas envolvem decisões que refletem interesses e visões de mundo. Segundo ele, compreender os impactos discriminatórios exige observar todo o ciclo de vida dos sistemas, da definição de objetivos à ausência de participação de grupos afetados. 

No caso da inteligência artificial generativa, baseada na coleta massiva de dados, esse processo tende a reforçar padrões existentes, incluindo exclusões raciais. 

“Vale sublinhar que a própria definição de sistema de inteligência artificial é elusiva, intencionalmente. De modo geral, organismos internacionais definem I.A. como um sistema baseado em máquinas que, a partir de modelos, dados e objetivos definidos por humanos são aplicados a tarefas como previsões, recomendações ou decisões para influenciar ambientes, organizações e sociedade.”

Tarcízio Silva é um dos pesquisadores responsáveis pelo conceito de Racismo Algorítmico – Imagem: Divulgação
Bases que alimentam I.A

Muito antes dos algoritmos, o racismo já operava como linguagem estruturante das imagens e narrativas que moldaram o imaginário social. Das ilustrações às grandes produções cinematográficas, a representação de pessoas negras foi historicamente marcada por estereótipos que reforçavam hierarquias raciais. 

Em Hollywood, desde sua consolidação no início do século XX, a indústria construiu personagens negros a partir de papéis limitados. Ao mesmo tempo, a exclusão também se manifesta fora da tela, com a baixa presença de profissionais negros em posições de direção.

No território brasileiro, esse mesmo processo aconteceu em diversas produções ao longo da história, são exemplos as composições voltadas ao público infantojuvenil, como mostra o estudo “Histórias em quadrinhos de aventura nas capas de Gazetinha (1933-1940) e de o Tico-Tipo (1933-1946)”. Conforme Lucas Neiva, historiador e autor da pesquisa, nessas narrativas, personagens brancos eram apresentados como heróis, associados à ideia de civilização, enquanto pessoas negras e indígenas apareciam de forma caricata, muitas vezes comparadas a animais ou representadas como selvagens, ignorantes e submissas. 

A ausência de individualidade, os traços exagerados e as posições de subordinação reforçavam uma lógica de desumanização que naturalizava o racismo desde a infância. Essas imagens, amplamente difundidas, atuavam na sua manutenção, consolidando uma gramática visual que, atualizada por novas tecnologias, segue influenciando a forma como corpos negros são lidos.

Imagens e IA Generativas: Reproduções racistas  e estereótipos

A atualização dessas distorções no ambiente digital aparece de forma concreta em experiências recentes com ferramentas de IA. Em outubro de 2024, a deputada estadual Renata Souza (PSOL-RJ) relatou que ao solicitar a uma ferramenta de IA a criação de uma arte baseada em pôsteres da Disney, a imagem produzida associou a cena a um contexto de favela com a presença de arma, acionando um repertório visual que vincula territórios negros à violência. 

O episódio evidencia como sistemas de IA, ao operarem com bases de dados marcadas por desigualdades históricas, não apenas reproduzem estereótipos, mas também os atualizam em novas linguagens.

No campo da representação imagética e da produção de conhecimento, os impactos das IAs generativas ultrapassam a estética e alcançam áreas sensíveis como a saúde. Para Tarcízio Silva, esses sistemas não apenas reproduzem imagens estereotipadas, mas também atualizam e disseminam saberes que já foram questionados pela ciência. Ele cita o artigo “Large language models propagate race-based medicine” (Grandes modelos de linguagem propagam medicina baseada em raça), que demonstra como ferramentas como ChatGPT e Gemini seguem reproduzindo noções racistas já refutadas, com impactos em decisões clínicas. Em análises conduzidas por pesquisadores brasileiros, erros semelhantes foram identificados em diferentes plataformas de IA, como ChatGPT, Gemini, Claude, Amazônia IA e Maritaca.

Gráfico do coletivo Desvelar mostra respostas de diferentes modelos de IA a perguntas sobre raça e medicina. Tons mais escuros indicam maior presença de informações racializadas e cientificamente refutadas, com base em metodologia do estudo “Large language models propagate race-based medicine”.

A lógica que estrutura esses sistemas também se manifesta nas próprias plataformas digitais, como evidenciado em denúncia realizada pela Revista Afirmativa, em setembro de 2024. Ao testar o mecanismo de busca do Instagram,  termos como “negra”, “mulher negra”, “marcha das mulheres negras” e “beleza negra” acionavam automaticamente um aviso associando o conteúdo à venda de drogas. O alerta aparecia antes mesmo dos resultados, acompanhado de orientações sobre riscos e links para apoio. O mesmo não ocorria com buscas como “branca” ou “beleza branca”.

Disputando narrativas a partir das imagens 

Esses sintomas não passam despercebidos pelas pessoas negras que se deparam com imagens estereotipadas geradas por IA, ou simplesmente com a completa falta de representação nelas. Artistas e pesquisadores negros enfrentam a dicotomia que envolve a utilização dessas ferramentas para disputar narrativas a respeito da população negra e indígena. Inclusive, como uma forma de recuperar e preservar a memória destruída pela colonização e pelo tráfico transatlântico de pessoas escravizadas. Nesse caso, as imagens se tornam uma maneira de externalizar imaginários a respeito de uma possível realidade apagada ou esquecida. É o caso de Tatyane Ramos, que atua como pesquisadora de Strategic Foresight (Previsão Estratégica, ou, como ela mesmo define, “Estudos do Futuro”). 

Natural do Rio de Janeiro e fundadora do The Prompt Laboratory (TPL), Tatyane faz uma pesquisa independente. Ela transforma as fotografias de sua família em textos que, ao serem inseridos nos aplicativo de IA generativa, criam imagens de pessoas negras vivendo uma vida ordinária: casando, no almoço de domingo, comemorando aniversários… uma vida para além da violência colonial, da animalização e do lugar do apagamento.

Tatyane Ramos, que atua como pesquisadora de Strategic Foresight – Imagem: TEDx

De maneira mais técnica, os textos produzidos por Tatyane são chamados de prompts – comandos, detalhados e objetivos, enviados para que os modelos de inteligência artificial executem as atividades solicitadas. Mas o trabalho da pesquisadora vai além. Nas mãos dela, esses textos são escritos como “poemas lindos, longos e com muitas curvas”, que ao serem inseridos no banco de dados das IAs, vão criar um repertório imagético pouco ou talvez nunca acessado pelas machines learning (sistemas de inteligência artificial capazes de aprender e relacionar dados). 

“O processo todo é muito poético, muito bonito e muito gostoso para mim pessoalmente, mas ele também traz o questionamento de quantas curvas precisamos fazer para sermos vistos”, relata Tayane. O TPL nasceu em um momento pós-pandemia, depois que a pesquisadora revisitou uma caixa de fotos onde sua mãe guardava as recordações da família. “A minha família tem um acervo fotográfico muito grande, bem preservado, o que é uma raridade entre famílias negras, não só brasileiras”, afirmou. 

Ela relatou que o impulso da pesquisa partiu justamente do momento em que a IA começou a ser pautada por um lugar mais popular, porém, ainda cercada de grandes questionamentos sobre a representação de pessoas negras e com múltiplos casos de racismo. Em junho de 2015, por exemplo, um usuário do Google Photos identificou que a inteligência artificial do programa classificava os seus amigos negros como gorilas.  

Tatyane relata que em seus testes, a partir de fotos que já existem, ela escreve prompts pedindo para que a IA imagine determinados cenários. “Eu questiono para a IA, ‘como você acha que isso é?’. Basicamente, em todos os meus testes, isso gera uma imagem de pessoas brancas, e para que pessoas negras apareçam, eu preciso escrever um poema cheio de curvas”, conta a pesquisadora.

Para além do uso das ferramentas, a disputa também envolve a formulação de novos caminhos. O pesquisador Tarcízio aponta que a própria base da inteligência artificial, centrada em processos de ranqueamento, classificação e hierarquização, constitui um obstáculo para a construção de tecnologias comprometidas com a justiça racial. Para ele, é necessário questionar de forma radical quais sistemas são, de fato, necessários para promover o Bem Viver, considerando que práticas como reconhecimento facial em espaços públicos, escore de crédito e produção massiva de conteúdo automatizado aprofundam desigualdades.

Para incidir em torno dessas demandas, um Comitê de Tecnologia foi desenvolvido durante a organização da Marcha das Mulheres Negras 2025, atuando para garantir o protagonismo de mulheres negras no futuro digital.  No manifesto produzido pelo grupo, as mulheres negras reivindicam: “A luta pelo Bem Viver passa também por um ambiente digital que seja um espaço de promoção da equidade e justiça social. O ecossistema digital que queremos precisa ser regulado, comprometido com a democracia, com a proteção da vida e com os direitos socioterritoriais”. 

Em um sentido similar, Tatyane chama atenção para a falsa neutralidade da tecnologia. Para a pesquisadora, disputar esse lugar de criação e narrativa  na tecnologia é disputar o futuro da memória, que não se restringe a pessoas negras, abrange também aos outros grupos minoritários. “Eu posso fazer essas mesmas perguntas, prompts, para uma sala cheia de gente. E talvez as imagens que são geradas na cabeça dessas pessoas sejam tão violentas, banhadas e embebidas pelo pensamento colonial quanto na máquina”, reflete.

A saída proposta pela pesquisadora para lidar com as problemáticas que envolvem o uso de IA por pessoas negras é a “crítica organizada”. Para Tatyane, essa ação envolve três etapas: a humanização dos sistemas de inteligência artificial, entendendo que existem pessoas pensando e elaborando os mecanismos de funcionamento; o questionamento desses sistemas, de sua criação e do conhecimento em que se baseiam; e o terceiro e último passo seria a aprender a construir novos sistemas. 

“Não é a grande resolução do problema, não é e nem se propõe a ser. Mas eu acho que é uma das coisas que eu posso trazer como exemplo de ação, de como podemos existir nessa encruzilhada. É exatamente o exemplo do que eu estou fazendo. Criar a partir da crítica. Criar algo que sirva a essa comunidade”, conclui.

Compartilhar:

.

.
.
.
.

plugins premium WordPress