Se você é negro, há algo familiar na forma como a IA reproduz imagens. E não é familiar de uma maneira que nos traz conforto, como o bolo da mamãe ou uma música que nos atravessa, mas familiar na forma como vivenciamos o racismo no mundo real todos os dias. É como o teste do pescoço, aquele em que você olha ao redor para ver quantas pessoas negras estão ao seu redor em algum estabelecimento. A diferença é que as ferramentas de IA reproduzem isso em escala e com autoridade antropomórfica.
Por muito tempo, o viés em IA foi tratado como um problema técnico. Mas para alguém que cresceu no Brasil, um país com racismo estrutural em todas as esferas da sociedade, nós sabemos que essa contradição não pode ser tão simples como uma falha técnica.
Os sistemas de IA não estão separados de quem os cria. Eles são treinados com o que nós, como sociedade, produzimos. Particularmente com o que os europeus produziram em suas epistemologias. Nossas imagens, nossas histórias, nossas formas de ver uns aos outros são todas contadas pelas vias eurocêntricas. E, quando as ferramentas de IA geram novas imagens, não as criam do nada. Elas estão reorganizando o que já estava lá nos arquivos e como elas foram treinadas e o que eu considero mais importante: por quem foram treinadas.
Na minha dissertação de mestrado, chamo isso de “Apagamento por IA”.
Mas vamos lá, as imagens não fazem as pessoas negras desaparecerem completamente, as ferramentas de IA apenas nos colocam nas margens, do jeito como foram treinadas para fazer. Nós somos os faxineiros, as garçonetes, as empregadas, enquanto as pessoas brancas são os acadêmicos, os médicos, advogados…
Crescemos em um país em que a maioria da população é negra e onde pessoas brancas ocupam posições de liderança. No Brasil, quando ligamos a TV, abrimos uma revista ou olhamos quem está em posições de poder, quase sempre esperamos ver pessoas brancas. As ferramentas de IA são feitas para maximizar seus dados de treinamento; portanto, reforçam tudo o que aprendem, incluindo a discriminação racial.
O que a IA faz não é muito diferente da realidade em que vivemos. Ela apenas organiza o mundo de uma forma semelhante a como ela foi treinada.
Na minha pesquisa, quando as IAs geram imagens de profissionais, líderes ou pessoas com status, os resultados frequentemente tendem à branquitude. Quando os temas são crime, pobreza ou marginalização, corpos com fenótipo mais escuro aparecem com mais frequência. Esses padrões não vêm do nada. Eles seguem o que já foi registrado, repetido e normalizado ao longo do tempo em nossa sociedade.
A diferença agora é velocidade, escala e autoridade. As pessoas realmente acreditam que a IA não é enviesada.

Essas imagens produzidas circulam rapidamente. Elas aparecem em salas de aula, apresentações, redes sociais, conversas do dia a dia. E pouco a pouco, começam a moldar e reforçar o que parece normal. Fazendo da discriminação algo esperado… factual.
Mesmo quando os sistemas são atualizados para evitar racismo e discriminação, esses padrões persistem. E o pior: esses padrões não são fáceis de remover porque estão ligados a longas histórias contadas pelos colonizadores, a ideias eugenistas e a hierarquias raciais. Essas ideias são sobre quem pertence e onde cada raça e gênero pertencem.
E a branquitude, nesse contexto, não é apenas sobre o tom de pele. É sobre posição de estatus. Sobre quem pode existir sem explicação. Quem é visto como o padrão.
Ainda de acordo com minha tese, o que torna isso mais complexo é como as pessoas recebem essas imagens. Como já disse, muitas pessoas confiam na IA fielmente, particularmente por causa de sua antropomorfização. A IA é vista como uma pessoa que tudo sabe, tudo entende, sem viés, sem posição política. Elas a veem as ferramentas de IA como neutras e objetivas.

Na minha pesquisa, quando eu pedi ao sistema de IA Midjourney para mostrar um “australiano” ( minha pesquisa foi feita na Australia, país no qual sou radicado hà mais de duas decadas), imagens de pessoas brancas sairam nos resultados, mas quando pedi por um imigrante australiano; asiáticos, africanos e outras pessoas não brancas apareceram. De acordo com dados do ABS ( similar ao nosso IBGE) , a maioria dos migrantes para a Austrália é de pessoas brancas de países como Nova Zelândia, Inglaterra e Irlanda, por exemplo. Isso sugere um limite que define quem se encaixa e quem não se encaixa. Quem é imigrante e quem é expat?

Para os participantes da minha pesquisa, esse impacto é sutil, mas constante. Isso molda como eles viram e veem a realidade. Quanto mais preconceituosas e racistas eram as imagens dos meus prompts, mais os participantes responderam com maior preconceito às perguntas que eu fazia. Isso me assustou. Eu devo confessar. Para nós, afro-brasileiros, isso reforça a discriminação e a exclusão que vivemos todos os dias e que agora se tornaram automáticas.
Com o tempo e com a maior difusão das ferramentas de IA, há um risco extremo de que os usuários possam reproduzir esses mesmos padrões, os mesmos vieses. Mesmo sem usar IA. As associações vão continuar acontecendo e as imagens permanecerão.
É assim que o ciclo continua e o Apagamento por IA se torna real.
O Apagamento por IA não acontece de uma única forma, nem de uma vez só. Acontece lentamente. Através da repetição. Através da familiaridade. Através da aceitação silenciosa do que é mostrado repetidamente.
Enfrentar isso não é apenas sobre consertar o sistema. É também sobre como olhamos para ele. Aprender a questionar o que aparece. Perceber quem está no centro e quem está nas margens.
Porque essas imagens carregam mais do que estética.
Elas carregam nossa forma de ver o mundo.












