Vivemos tempos em que as plataformas digitais prometem liberdade, conexão e igualdade, mas será mesmo?. Todo processo de pesquisa começa por questionar aquilo que se consolidou no imaginário social como verdade. Este texto traz um pequeno recorte da minha pesquisa de mestrado, desenvolvida no grupo DIASPOTICS, no Instituto de Psicologia da UFRJ, em que investigo as experiências de migrantes africanos(as) no Brasil com o uso de plataformas digitais e as dinâmicas da chamada diáspora digital.

            A partir de uma pesquisa inicialmente teórica, e após exploratória e descritiva, realizada com migrantes que atuam como produtores(as) de conteúdo digital, foram evidenciadas experiências que ilustram como os algoritmos das plataformas digitais sustentam uma arquitetura técnica e política de perfilamento, captura e exclusão. Essa arquitetura se estrutura por meio do que denomino governamentalidade algorítmica: uma forma contemporânea de governo dos comportamentos que opera por meio da coleta massiva de dados, sua análise e uso preditivo, moldando escolhas, acessos e visibilidades de maneira silenciosa e automatizada.

            Diferentemente da vigilância panóptica tradicional, que se baseava na ameaça da observação constante, a governamentalidade algorítmica não precisa vigiar para controlar. Ela antecipa, calcula e organiza comportamentos com base em padrões probabilísticos, moldando silenciosamente as possibilidades de ação. A vida digital, nesse contexto, é regulada por infraestruturas técnicas que classificam e hierarquizam sujeitos, afetando especialmente aqueles historicamente subalternizados, no qual aqui se transforma em perfis digitais abjetos, como migrantes negros(as/es), cujos corpos e discursos são frequentemente lidos como “fora do padrão”.

É nesse cenário que proponho o conceito de xenorracismo algorítmico: uma discriminação que não apenas é enviesada mas media diferentes categorias identitárias, na intersecção entre raça e estrangeiridade. Essa forma de preconceito não depende de intencionalidade humana como nas relações físicas do dia a dia, pois se realiza por meio de parâmetros técnicos que selecionam o que deve ser mostrado, promovido ou silenciado, com base em critérios que privilegiam normatividades culturais, linguísticas e raciais das empresas de tecnologia.

Quando vejo que meus conteúdos que tratam de identidade, racismo e cultura africana têm menos engajamento, me pergunto se não é exatamente isso que a sociedade e os algoritmos estão dizendo: “que esses conteúdos têm menos valor ou são menos interessantes”. A gente vive isso nas ruas, no trabalho, e depois sente o mesmo nas plataformas digitais, como se a nossa voz fosse constantemente silenciada ou ignorada com uma sensação de invisibilidade. (Entrevistada 1).

Parece que se você for contra esse discurso sua visibilidade cai, um exemplo é que uma vez posto sempre fotos nos stories de mulheres negras vestindo meus modelos, e resolvi postar imagens do google de mulheres brancas usando roupas e adereços africanos, posto sempre no mesmo horário na noite depois de seis horas, e vi uma diferença grande de visualizações. A minha média é de 500 e dessa vez chegou a quase 1000. (Entrevistada 2).

O xenorracismo algorítmico representa uma atualização do racismo que opera no plano do código e da predição, onde a estrangeiridade e a racialização são tratadas como “variáveis de risco” ou de “baixa compatibilidade” com os padrões normativos da visibilidade digital. Seu impacto é devastador porque, diferente das formas explícitas de preconceito, ele se oculta sob a aparência de técnica, neutralidade e automatismo.

Essa lógica da governamentalidade algorítmica produz subjetividades perfiladas:  modos de existir moldados por padrões de dados, pelo desejo incessante da curtida, do próximo vídeo no reels do Instagram ou no TikTok. É uma aprendizagem algorítmica que classifica e ajusta imaginários e comportamentos dos usuários às lógicas de rentabilidade e previsibilidade das plataformas. Assim, cria-se um regime de opacidade na visibilidade digital que premia quem se encaixa nesses padrões e silencia quem escapa deles. Neste sentido, corpos de migrantes negros(as) que no meio físico e social são abjetos (menos valorizados), são agora uma abjeção algorítmica, em que certos corpos e narrativas são sistematicamente invisibilizados por meio de lógicas probabilísticas de exclusão.

Nas falas de migrantes entrevistados(as), esse processo é experimentado como um apagamento emocional e simbólico, muitas vezes naturalizado pelas próprias plataformas.

No começo, foi bastante frustrante ver como a discriminação algorítmica parecia desvalorizar o trabalho que faço para mostrar uma visão mais justa da cultura africana. A sensação de que meus esforços para combater estereótipos e promover uma imagem mais completa da África estavam sendo ignorados. (Entrevistado 3).

            A fala ilustra como o mecanismo de opacidade do xenorracismo algorítmico produz uma opacidade de exclusão automatizada, que associa determinados temas, sotaques, rostos e narrativas a categorias de “baixo engajamento”, impedindo que ganhem visibilidade. Trata-se de uma deslegitimação afetiva e política, que opera sem deixar rastros explícitos, mas com efeitos concretos: silenciamento, cansaço, isolamento.

            Na prática, isso significa que nossas interações nas plataformas não são neutras nem espontâneas. Quando um vídeo sobre racismo ou xenofobia produzido por uma mulher migrante negra recebe menos alcance que conteúdos “mais leves” ou “mais palatáveis”, não se trata de uma coincidência, mas de uma filtragem algorítmica baseada em critérios como taxa de engajamento, tempo de visualização e suposta “relevância”, critérios que reproduzem, muitas vezes, os mesmos vieses discriminatórios presentes na sociedade.

            Com isto, o xenorracismo algorítmico se apresenta como uma nova fronteira da exclusão digital. Na pesquisa é relatado pelos migrantes que criam conteúdos digitais que a resistência a isso não é simples, mas tem se expressado em práticas de reexistência digital: estratégias de opacidade, criação coletiva, redes alternativas e reinvenção das formas de aparecer e comunicar. São práticas que não apenas denunciam, mas subvertem a lógica de governança algorítmica, reclamando o direito de existir com ruído, com diferença, com complexidade.

            Com base nas reflexões e relatos apresentados, fica evidente que os algoritmos não operam de forma neutra, eles organizam visibilidades, reforçam desigualdades e moldam subjetividades. Para migrantes racializados(as), isso significa enfrentar um regime digital que seleciona quem pode ser visto, ouvido e validado. Este texto é apenas um recorte de uma investigação mais ampla, que convido você a conhecer. Na minha pesquisa de mestrado, desenvolvida no Instituto de Psicologia da UFRJ, aprofundo essas questões a partir de entrevistas, referenciais críticos e análises sobre como plataformas digitais participam da produção contemporânea de alteridades e exclusões.

Acesse e leia:

EWERTON, B. Diáspora Digital e Visibilidade: Xenorracismo Algorítmico para Migrantes Africanos(as), 2025. Dissertação (Mestrado em Psicossociologia de Comunidades e Ecologia Social) – Instituto de Psicologia, Universidade Federal do Rio de Janeiro – UFRJ, Rio de Janeiro, 2025. Disponível em: https://www.academia.edu/128465713/Di%C3%A1spora_Digital_e_Visibilidade_Xenorracismo_Algor%C3%ADtmico_para_Migrantes_Africanos_as_