Direto ao ponto

A cientista e ativista negra que enfrentou as big techs

A pesquisa de Joy Buolamwini persuadiu Amazon, IBM e Microsoft a rever a tecnologia de reconhecimento facial. Ela agora luta contra o preconceito da IA em outras frentes

Compartilhar:

Em junho, a Amazon anunciou que estava voltando atrás quanto ao uso policial de seu polêmico software de reconhecimento facial, o Rekognition, usado pela polícia durante anos. Na mesma semana, a IBM prometeu parar totalmente de desenvolver o reconhecimento facial, e a Microsoft se comprometeu a suspender seu sistema usado pela polícia até a aprovação de uma regulamentação federal.

Tudo isso, segundo a revista Fast Company, graças à atuação da cientista da computação Joy Buolamwini. A base para esses resultados foi lançada há quatro anos, quando a jovem, então uma formanda de 25 anos no Media Lab do MIT, começou a examinar as disparidades raciais e de gênero incorporadas às tecnologias de reconhecimento facial disponíveis comercialmente.

Sua pesquisa culminou em dois estudos que revelaram como os sistemas das Big Techs foram incapazes de classificar os rostos femininos mais escuros com a mesma precisão dos homens brancos – destruindo o mito da neutralidade da máquina e provocando injustiças. Para Buolamwini, a pausa das Big Techs no desenvolvimento dessa tecnologia não é suficiente: ela está consolidando um movimento para expor as consequências sociais da inteligência artificial.

Por meio de sua organização sem fins lucrativos, a Algorithmic Justice League (AJL), Buolamwini testemunhou perante congressistas dos EUA sobre os perigos do uso de tecnologias de reconhecimento facial sem supervisão.
A ativista digital viveu o problema. Como estudante de graduação na Georgia Tech, ela teve que “pegar emprestado” o rosto de sua colega de quarto para usar em uma tarefa. Na época, a pesquisadora achava que as empresas de tecnologia logo resolveriam o problema. No MIT, percebeu que nem sabiam que o problema existia. Joy decidiu investigar o viés algorítmico quando se viu vestindo uma “máscara branca” para acessar o Media Lab do MIT – sem esse recurso, que escondia totalmente suas feições, o computador não a reconhecia.

Com seus estudos, afirma a reportagem, Buolamwini ajudou a fundar um novo campo de pesquisa acadêmica, que comprova o racismo nos algoritmos. Agora, a AJL, que antes funcionava como uma espécie de coalizão informal de pesquisadores e ativistas digitais, está lançando o Algorithmic Vulnerability Bounty Project, um conjunto de ferramentas que ajudará as pessoas a relatar preconceitos e danos causados pela IA, inspirado nos tipos de programas de recompensa usados para encontrar falhas de segurança na programação.

Compartilhar:

Artigos relacionados

Segredos para um bom processo de discovery

Com a evolução da agenda de transformação digital e a adoção de metodologias ágeis, as empresas se viram frente ao desafio de gerar ideias, explorar

Sim, a antropologia é “as a service”

Como o ferramental dessa ciência se bem aplicado e conectado em momentos decisivos de projetos transforma o resultado de jornadas do consumidor e clientes, passando por lançamento de produtos ou até de calibragem de público-alvo.

Sua empresa pratica o carewashing?

Uma empresa contrata uma palestra de gerenciamento de tempo para melhorar o bem-estar das pessoas. Durante o workshop, os participantes recebem um e-mail da liderança