Por Catiane Pereira
Quando o racismo do “mundo analógico” migra para o digital, a dor é amplificada e as oportunidades de trabalho se tornam mais escassas para profissionais negras(os). Essa é a denúncia que ecoa nas experiências de mulheres como a nutricionista ecológica Bruna Oliveira, a jornalista que vos escreve, a advogada Lorraine da Costa, a farmacêutica bioquímica Bruna Araújo e a também jornalista Karla Souza. Em comum, todas nós usuárias negras do LinkedIn, plataforma que se propõe a conectar talentos e oportunidades, recebemos recomendações de ocupações incompatíveis com nossas qualificações.
A semente dessa reportagem foi plantada no dia 29 de maio, quando me deparei com a publicação de Bruna Oliveira. Ela, uma nutricionista ecológica, mestre em Ciências Sociais, analista de conservação e empresária, denunciava que o LinkedIn lhe oferecia apenas vagas de auxiliar de serviços gerais. A perplexidade foi imediata. Ao verificar meu próprio perfil de jornalista com experiência em redação, encontrei sugestões de recepcionista e estoquista. Ao compartilhar a experiência com minha colega de trabalho, Karla, também jornalista, ela revelou o mesmo padrão: a plataforma lhe indicava vagas de diarista. A “coincidência” era gritante. Qual seria o elo “invisível” por trás dessas sugestões?
“Vagas que combinam com seu perfil”: quando o algoritmo pode reforçar o racismo
Para Bruna Oliveira, a denúncia partiu de um lugar de incredulidade. A nutricionista, que atua na pesquisa sobre desigualdades alimentares com recorte étnico-racial, questiona a lógica por trás das sugestões. “A associação entre mulheres negras e ocupações ligadas a serviços gerais, limpeza, faxineira, diarista, é reflexo da sociedade racista em que vivemos”, pontua.

O mais perverso, segundo Bruna Oliveira, é a frase que acompanha as sugestões: “vagas que mais combinam com o seu perfil”. “Essa frase ecoa na minha mente, porque as vagas que mais combinam com o meu perfil são vagas de nutricionista, pesquisadora, palestrante, comunicadora, todas descrições que fazem parte do meu currículo e não as que me indicam”, desabafa.

Bruna Oliveira ressalta que a consequência vai além de receber vagas erradas: seu perfil pode não estar sendo oferecido aos recrutadores certos. “A organização que me contratou precisou contratar uma consultoria de recrutamento em diversidade para encontrar o meu perfil. Vou seguir estudando para quebrar todas as vassouras que me oferecerem”, conclui a nutricionista.
Quando a qualificação não é suficiente
A experiência de Bruna Oliveira não é única. A advogada e cientista social Lorraine Carla da Costa é aluna de doutorado e possui vasta experiência profissional em áreas estratégicas. Mesmo assim, ela recebia insistentemente no LinkedIn sugestões de vagas como estoquista e recepcionista. A mudança só veio com a adesão ao plano premium da plataforma, mas as sugestões inadequadas ainda ocorrem, em menor volume. “Se eu abrir aqui agora, consigo mostrar que tem vaga de cozinheira sendo sugerida para mim ainda”, revela.

Lorraine aponta que o feed, que deveria trazer oportunidades relevantes, também falha. “Colegas brancos alegavam que apareciam diversas vagas anunciadas em postagens no feed e para mim não aparecia”. Para Lorraine, a solução passa por “escutar a comunidade que está sendo atingida pelo racismo algorítmico” e “promover as mudanças de estrutura tecnológica que forem necessárias”.

O racismo algorítmico, termo que Lorraine menciona, ocorre quando sistemas automatizados, como algoritmos de inteligência artificial e aprendizado de máquina, reproduzem ou amplificam preconceitos raciais existentes. O conceito foi cunhado pelo pesquisador Tarcízio Silva, e versa sobre a manutenção das desigualdades raciais por meio de tecnologias digitais. Autor do livro “Racismo algorítmico: inteligência artificial e discriminação nas redes digitais” e pesquisador da Fundação Mozilla, ele argumenta que essa prática reflete uma atualização do racismo, perpetuando a marginalização de grupos negros e evidenciando a falta de neutralidade nas tecnologias digitais.
A farmacêutica bioquímica Bruna Araújo também sentiu na pele essa situação. “Quando eu vi o post da Bruna Oliveira, eu não tinha parado muito para associar essas vagas a esse racismo algorítmico”. Ao verificar, notou o mesmo padrão. “Me ofereceram diversas vagas de vendedoras, e sempre friso para o LinkedIn que sou da indústria farmacêutica. As vagas oferecidas são de vendedores de loja de eletromóveis, que não têm absolutamente nada a ver com a minha formação.”

A vivência do racismo algorítmico se soma ao racismo cotidiano que Bruna Araújo enfrenta fora do mundo digital. “Já vivo com racismo no dia a dia, estava de tranças e agora penso em alisar o cabelo para sobreviver nesse mundo corporativo. Dizem que não tenho rosto de farmacêutica. É aquilo, cada vez mais eu tenho que provar que eu sou competente, mesmo para uma inteligência artificial”, desabafa.

O padrão que reproduz o racismo no digital
Karla Souza, jornalista com especialização em Africanidades e Cultura Afro-brasileira, também se deparou com vagas incompatíveis, como as de diarista. “Não reflete nenhum lugar que trabalhei, nenhuma busca, nada, não entendo”, afirma. Ela ressalta que o racismo nos atravessa em diferentes espaços, e o profissional não é exceção.

Para Karla, o problema é técnico, estrutural e político. “Os sistemas automatizados e as inteligências artificiais operam com base em dados históricos e escolhas humanas, e esses dados já estão marcados por desigualdades estruturais. Assim, o racismo que atravessa a sociedade é reproduzido e amplificado pelos algoritmos”. Ela também critica a superficialidade de algumas iniciativas de diversidade, que não transformam as bases que sustentam as desigualdades.

O algoritmo como reflexo do racismo
Para a pesquisadora técnica baseada na Teoria Racial Crítica (TRC), Vanessa Silva, a questão é clara: as sugestões de vagas incompatíveis com a qualificação de profissionais negras demonstram como a formulação e implementação de algoritmos em grandes empresas de tecnologia ainda se baseiam em dados que refletem desigualdades raciais e sociais.
“O racismo algorítmico vai exigir da gente uma análise muito facetada, porque a gente precisa considerar tanto os vieses presentes nos dados quanto na equipe de desenvolvedores para analisar a própria estrutura tecnológica que pode perpetuar desigualdades sociais”, explica.
Para Vanessa, o ponto central é que “por trás da tecnologia sempre vai ter uma empresa, sempre vão ter pessoas que vão ter seus próprios princípios e interesses próprios”. Isso significa que uma organização determina qual conteúdo de uma plataforma digital receberá mais ou menos engajamento, e quais características (que podem ser físicas, sociais, profissionais) de uma pessoa poderão corresponder a determinadas vagas de trabalho.

Ela enfatiza a necessidade de tornar o debate sobre racismo algorítmico mais comum na sociedade. “O racismo algorítmico é resultado dos discursos hegemônicos que perpetram a invisibilidade tanto das dimensões sociais inerentes à tecnologia quanto dos debates críticos sobre a centralidade das questões raciais em muitas esferas da sociedade.”
Para mitigar o racismo algorítmico, ela sugere a criação de um corpo de desenvolvedores diverso, com presença significativa de pessoas pretas, e maior transparência sobre o funcionamento das recomendações para os usuários.
O racismo velado nos códigos
Larissa Milhorance, engenheira de software e cientista da computação, explica que alguns algoritmos, como pode ser o caso do LinkedIn, operam com base no histórico de cliques, curtidas, pessoas seguidas e conteúdos compartilhados. “Mesmo que digam que não usam raça, nome ou foto, o viés pode aparecer nas interações do usuário. Se a rede da pessoa é majoritariamente negra, se ela interage com conteúdos sobre raça, tudo isso pode ser usado para treinar o algoritmo – e ali o racismo estrutural se infiltra.”
A engenheira conta que, embora o LinkedIn não divulgue o funcionamento exato de seus algoritmos de recomendação, por serem uma empresa privada, é possível entender o processo de forma geral. “Os algoritmos são basicamente estruturas de perguntas, processamento e resposta. As pessoas geralmente dizem que algoritmos são como se fossem receitas de bolo”, ilustra. No LinkedIn, ela acredita que a plataforma utiliza uma combinação de modelos de linguagem de larga escala e aprendizado de máquina para conectar perfis a vagas.

“Quando a gente vai para a parte de reconhecimento facial, reconhecimento de nome e essas inteligências artificiais, esses modelos de machine learning, ‘falham’, porque utilizam dados extremamente eurocêntricos ou americanizados, extremamente brancos”, explica. A consequência direta é a dificuldade em reconhecer pessoas negras, seus nomes e traços, devido a uma amostragem insuficiente nos dados de treinamento.
Mesmo que o LinkedIn afirme anonimizar dados como nome e foto, Larissa alerta que o viés pode persistir devido a outros dados coletados. A engenheira de software defende uma “codificação ética” e uma abordagem consciente na concepção dos produtos.
“Se você não tem pessoas negras dentro dessas salas, se você não tem pessoas LGBTQIAP+, pessoas asiáticas, árabes, indígenas, é muito provável que nenhuma das outras pessoas vão pensar em casos para testar aquele produto para pessoas socialmente minorizadas”, argumenta.
A resposta do LinkedIn: um repúdio que não se traduz em explicações
Em resposta à solicitação de Bruna por explicações sobre os critérios técnicos, lógicos e estatísticos do algoritmo de recomendação, o LinkedIn, no dia 13 de junho, mais de dez dias após o contato inicial, limitou-se a uma nota genérica.
Em trechos da nota, a empresa afirma que “O LinkedIn repudia veemente qualquer forma de discriminação, incluindo, mas não se limitando, à racial, de gênero, etnia, religião, idade, deficiência ou com base em qualquer outro marcador social de vulnerabilidade (…)” e que adota “postura firme contra conteúdos que estimulem, defendam e/ou incitem o racismo, e que reflitam ataque ou discriminação”.
No entanto, a resposta da plataforma, apesar de repudiar a discriminação, não apresenta uma explicação objetiva e transparente para o caso de Bruna Oliveira, que têm enfrentado a dificuldade de receber vagas compatíveis com suas qualificações.
A ausência de detalhamento sobre o funcionamento do algoritmo, especialmente diante das evidências apresentadas pelas entrevistadas e pelas especialistas, mantém a “caixa preta” dos algoritmos fechada e a sensação de que a plataforma se isenta de uma responsabilidade mais profunda diante dos casos de racismo algorítmico.
No dia 16 de junho, em nota pública, a nutricionista denunciou o “crime silencioso” cometido pelo LinkedIn. Para ela, essa recomendação não é falha técnica, mas “uma violência intergeracional” que atualiza o racismo por meio da tecnologia. Bruna exige transparência, auditoria e responsabilização das plataformas: “Chega de crueldade digital travestida de personalização.”
Contatado pela Afirmativa, o LinkedIn afirmou, em nota, que as recomendações de vagas são “baseadas na atividade dos usuários e usuárias – como buscas por empregos, alertas, informações do perfil e interações na plataforma”. A empresa destacou que “informações demográficas como idade, raça, nacionalidade ou gênero não são utilizadas para recomendações de vagas” e que os erros de correspondência “não foram causados por discriminação racial”. Ainda segundo a plataforma, seus sistemas são avaliados continuamente para “identificar e corrigir possíveis vieses”, e que há “especialistas dedicados em garantir que nossa tecnologia funcione de forma justa para todos”.