Racismo algorítmico: impactos da cor no ambiente virtual

Pesquisador afirma que discussão precisa entrar em voga na sociedade como uma das formas de combate à discriminação racial online

Por Igor Soares | ODS 10 • Publicada em 23 de fevereiro de 2021 - 08:24 • Atualizada em 2 de março de 2021 - 10:58

Racismo algorítmico: usuários refletem, no mundo online, o comportamento que têm fora das redes. Arte Claudio Duarte

Você sabe o que é racismo algorítmico? Em grande parte, é a prática de fazer distinção de cor a partir da recomendação de um conteúdo ou do reconhecimento facial de usuários negros ou não-brancos, em relação às pessoas de cor branca no ambiente virtual. A internet se tornou um dos espaços de maior presença da população brasileira nas últimas décadas. De acordo com uma pesquisa da TIC Domicílios de 2019, cerca de 130 milhões de pessoas têm acesso à rede no Brasil.

A discussão sobre o tema tomou uma grande proporção após usuários do Twitter, plataforma de microblog, denunciarem que os algoritmos do site destacavam pessoas brancas em fotos. A empresa reconheceu que o corte feito pelo algoritmo era racista e disse que trabalharia para melhorar a inteligência artificial da plataforma.

Fernanda Carrera, professora e pesquisadora do Laboratório de Identidades Digitais e Diversidade da UFRJ, afirma que os algoritmos são tecnologias usadas para reproduzir as estruturas racistas e inserir uma nova forma de reforçar a prática. “Quando a gente vê o Google ou os bancos de imagens associando palavras-chave pejorativas a indivíduos e corpos negros, reproduz-se a lógica racista e de uma objetividade no ambiente virtual que não existe.”

Gostando do conteúdo? Nossas notícias também podem chegar no seu e-mail.

Veja o que já enviamos

Para Tarcizio Silva, pesquisador da Mozilla Foundation, a propagação de sistemas algorítmicos racistas está relacionada à desigualdade racial na sociedade, historicamente mergulhada na supremacia branca, que é o caso do Brasil e dos Estados Unidos. “Os impactos mais graves estão nas áreas de policiamento preditivo e reconhecimento facial, análise de escores de crédito e risco financeiro e até na atribuição de cuidados médicos”, ressalta.

Silva aponta que as mídias sociais são o reflexo da sociedade. Para ele, os usuários refletem, no mundo online, o comportamento offline. “As mídias sociais são catalizadoras de relações de poder já presentes na sociedade, podendo, em alguns casos, intensificar a possibilidade de agressões discursivas ou apagamentos de experiências de grupos minorizados”, analisa.

Um estudo da Anistia Internacional, realizado em 2018, revelou que, no Twitter, mulheres jornalistas e parlamentares negras têm 84% de chance de sofrer abuso online do que as brancas. “Algumas características das mídias sociais, como sensação de distanciamento, anonimização e impunidade, devido à leniência das plataformas, colaboram com estes índices”, critica. Por outro lado, o pesquisador afirma que esses mesmos espaços também servem como lugar de fortalecimento de identidades e construção de comunidades de grupos minorizados.

Questionado sobre quais caminhos podem ser apontados para ampliar o debate, Silva diz que a participação da sociedade em defesa da soberania e do bem-estar social deve ser incentivada e “sistemas que realizam decisões automatizadas sobre humanos devem ser alvo de escrutínio público”.

Em relação aos Estados Unidos, país onde o debate sobre racismo algorítmico teve início, segundo o especialista, parte da população negra norte-americana defende o desenvolvimento de tecnologias mais justas, o que impacta grupos minorizados de outros países. “Pesquisadoras e ativistas negras estadunidenses ou que vivem nos EUA acabam por ter impactos muito relevantes tanto nas ideias sobre o tema quanto na definição de políticas públicas”, afirma. “Iniciativas desenvolvidas por referências como Alondra Nelson, Ruha Benjamin, Joy Buolamwini, Timnit Gebru e outras acabaram por impactar globalmente a luta por um futuro tecnológico mais justo.”

Como forma de enfrentar os impactos do racismo algorítmico, o pesquisador acredita que é necessário defender a Lei Geral de Proteção de Dados, um instrumento regulador do uso de dados por parte de empresas de tecnologia. A finalidade é que os dados pessoais, inclusive nos meios digitais, fiquem protegidos, garantindo os direitos fundamentais de liberdade e privacidade. O WhatsApp, o aplicativo de mensagens mais usado no Brasil, anunciou que vai mudar as políticas de privacidade no país, exigindo que o usuário aceite as novas regras, sob pena de ser proibido o uso dos que não concordarem.

O especialista espera que haja uma “promoção de reflexão crítica sobre a relação entre tecnologia e sociedade nos espaços cívicos, escolas, universidades e organizações da sociedade civil”. Carrera sinaliza que é necessário rever as bases de construção dos algoritmos. “Isso significa repensar quem são os programadores, quem está em cargos de poder. E, se a gente não transformar isso a partir da diversidade na contratação e nos cargos, não vamos mudar a tecnologia”, diz a professora.

Para o futuro, os especialistas têm expectativas de mudança. “Cidadãos capazes de interpretar criticamente seus padrões de consumo e tecnologias utilizadas podem, por sua vez, pressionar politicamente os campos empresariais e estatais por melhorias na implementação e controle das tecnologias que sejam pensadas, desde o início, baseadas em pilares éticos como benevolência, explicabilidade e transparência”, finaliza Silva.

Igor Soares

Igor Soares é jornalista formado pela UFRJ. Atua como repórter do Fala Roça e como freelancer do #Colabora e do Rio On Watch. Tem experiência em cobertura de cidades, direitos humanos, segurança pública, economia e política, com passagem pelas redações do Estadão, do Portal iG, além de já ter produzido reportagens para a Folha de S. Paulo.

Newsletter do #Colabora

A ansiedade climática e a busca por informação te fizeram chegar até aqui? Receba nossa newsletter e siga por dentro de tudo sobre sustentabilidade e direitos humanos. É de graça.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Compartilhe:

Sair da versão mobile