Algoritmos reforçando preconceitos

Quando se pensa em algoritmos, dados e plataformas, imaginamos sistemas inteligentes robotizados, sem qualquer interferência humana. Só que esquecemos que quem programa tais operações e estabelece padrões são pessoas, portanto, preconceitos podem ser reforçados pela máquina, que podem abranger racismo, machismo e discriminações. É disso que trata a pesquisa “Dados, Algoritmos e Racialização em Plataformas Digitais” de Tarcízio Silva, doutorando da Universidade Federal do ABC (UFABC) e diretor de Pesquisa em Comunicação do Instituto Brasileiro de Pesquisa e Análise de Dados (IBPAD).

O objetivo do estudo é “refletir e documentar casos e reações ao que chamo de ‘racismo algorítmico’ e ‘design de interface racializado’”, explica. “Minha pesquisa trata sobretudo de plataformas de comunicação e mídia – há pesquisadores em torno do mundo que focam em outras áreas, como mecanismos jurídicos ou policiamento preditivo”, ainda esclarece o pesquisador.

Casos na comunicação

Imagem: retirada da pesquisa do autor.
Imagem: retirada da pesquisa do autor.

“Sistemas robóticos que não reconhecem o rosto de pessoas negras ou reconhecem com menos precisão; buscadores que trazem imagens hipersexualizadas de crianças e adolescentes negras; plataformas de anúncios que permitem excluir negros e asiáticos, mas não brancos; ferramentas de processamento de texto que excluem palavras culturalmente associadas à populações minorizadas; bancos de imagens que só trazem fotografias de famílias brancas para serem usadas em anúncios e assim por diante”, estão entre os exemplos citados por ele.

Tarcízio Silva frisa que está falando de “racismo algorítmico” e não “algoritmos racistas”. “Apesar de que alguns algoritmos e plataformas podem ser criados intencionalmente para prejudicar alguns grupos, na maioria dos casos não parece ser o motivo. Mas a ideia de que as plataformas como sistemas de recomendação e visão computacional apenas ‘reproduzem a sociedade’ também é errônea por vários motivos”, afirma, e em seguida, dá dois exemplos para defender seu ponto de vista.

“O primeiro deles é que parte dos sistemas, regidos por métricas de suposta eficácia ou popularidade, podem direcionar a conteúdos ou posições cada vez mais extremas. É o caso do YouTube, que está sendo investigado por recomendar conteúdo cada vez mais chocante através do recurso ‘vídeos relacionados’. Isto tem impacto sobre extremismo político e até mesmo recomendação de vídeos de crianças para pedófilos. O segundo problema é que esta visão de que as plataformas só reproduzem a sociedade vê ambientes como Facebook e Google como se fossem ‘só tecnologia’. Mas não são, são também mídia apesar do que defendem para não serem regulados como tal. E, por conseguinte, têm responsabilidades perante a sociedade”, diz.

À época dessa entrevista, ainda não havia sido aprovada a resolução do Conselho Executivo de Normas-Padrão (CENP), que reconhece Facebook e Google como veículo de mídia no Brasil. Tal medida aconteceu há poucos dias, em 16 de julho.

Racismo algorítmico

O termo criado pelo diretor da IBPAD “engloba como comportamentos e discriminações racistas são incorporadas – intencional ou não-intencionalmente – em sistemas regidos por algoritmos, reforçando estes problemas. É importante deixar claro que a questão é social e as empresas que produzem as plataformas e lucram com tais sistemas têm responsabilidade – por intenção ou por omissão”, como define em suas palavras.

Foto: Markus Spiske
Foto: Markus Spiske

Silva une em sua investigação a perspectiva da “Teoria Racial Crítica” à tradição dos “Estudos de Ciência e Tecnologia” (Science and Technology Studies), que trata também de literacia midiática. Em uma de suas iniciativas, desenvolveu uma Linha do Tempo do Racismo Algorítmico, que inclui mais de duas dúzias de casos.

Desenvolveu também de forma colaborativa um script em Python, que analisa os recursos de visão computacional da IBM, Microsoft e Google. Dessa maneira, pode-se compará-los e definir se são precisos sob vários aspectos – inclusive raciais e culturais. O estudo, apresentado na Universidade Nova de Lisboa em janeiro, mostrou (entre outros dados), que são confundidos cabelos afro com “peruca”. Os resultados em português serão publicados em breve.

No Simpósio Internacional da Rede Latino-americana de Estudos sobre Vigilância, Tecnologia e Sociedade, LAVITS, foi apresentado o artigo Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Em que a teoria das microagressões, originada por psicólogos e educadores dos EUA, é trazida para o debate sobre algoritmos. “É um modo mais ‘simples’ de falar sobre estas opressões mais sutis do dia a dia, que prejudicam grupos minorizados como pessoas negras, mulheres, homossexuais e afins. Nos EUA, graças às ações afirmativas vigentes desde a década de 1970 é um tema relativamente maduro nos ambientes educacionais. Proponho o uso de uma tipologia de microagressões para falar dos algoritmos e plataformas digitais também, facilitando a articulação com outros campos”, finaliza.

Um tema de extrema relevância para a sociedade, em sua opinião, para que os grupos minorizados econômica e politicamente não sejam ainda mais vulnerabilizados. “Mas, evidentemente, esta preocupação deveria ser de todos os envolvidos – inclusive das plataformas de mídias sociais ou inteligência artificial.”

O que você achou disso?

Clique nas estrelas

Média da classificação 0 / 5. Número de votos: 0

Nenhum voto até agora! Seja o primeiro a avaliar este post.

Lamentamos que este post não tenha sido útil para você!

Vamos melhorar este post!

Diga-nos, como podemos melhorar este post?