Joy Buolamwini, mulher preta, estava no primeiro ano de sua pós-graduação no MIT em 2015 quando criou um experimento chamado “Aspire Mirror”, que tentava mudar a imagem de seu rosto na tela do computador, para funcionar como se fosse um espelho, mas os softwares simplesmente não conseguiam reconhecer sua face. A Amazon criou um programa de inteligência artificial para encontrar bons candidatos a vagas de emprego, que discriminava mulheres no processo de seleção.
A empresa deixou de usar o programa, mas só descobriu a falha após um ano de desenvolvimento. Uma [campanha de uma rede de farmácias patrocinadora da Seleção Brasileira Feminina de Futebol](https://www.youtube.com/watch?v=4S9ebTxKePM) mostra uma resposta enviesada dos três chatbots de IA mais conhecidos do mundo – entre eles o ChatGPT – , que dizia que quem havia feito mais gols pela Seleção Brasileira era Pelé, quando a resposta correta seria Marta (119 gols, contra os 95 dele).
O que essas histórias nos alertam sobre a Inteligência Artificial?
__Há um iminente risco de perpetuarmos os preconceitos de gênero, raça e etnia de nossa sociedade se continuarmos a usar a IA como temos feito até hoje. Um viés que pode trazer severos danos de imagem e reputação das marcas e consequências ainda piores para as pessoas impactadas pelos erros da tecnologia.__
Esse alerta se torna ainda mais urgente considerando uma [pesquisa do BCG que ouviu 1.400 executivos C-level](https://www.bcg.com/publications/2024/from-potential-to-profit-with-genai), que diz que 89% dos líderes consideram a IA e a GenAI uma das três prioridades tecnológicas para suas empresas, sendo que mais da metade (51%) coloca estas tecnologias no topo da lista dos investimentos.
Se os negócios estão sendo redesenhados usando tecnologias emergentes como a IA, o que precisa ser feito para evitar erros como os das histórias contadas no início deste artigo?
Em primeiro lugar, alertar os executivos, lideranças e CEOs que tomam as decisões de investimentos na tecnologia sobre a importância da diversidade e da responsabilidade ética das marcas como premissas de desenvolvimento, em especial enquanto a regulamentação da IA ainda não foi aprovada. Afinal, os algoritmos da inteligência artificial são treinados com base em dados que precisam __prever a diversidade de raça, gênero e etnia da população brasileira__ e mundial.
Parece óbvio, mas por que ainda precisamos falar sobre isso? Uma pesquisa do Google for Startups, “[O Impacto e o futuro da Inteligência Artificial no Brasil](https://startup.google.com/intl/pt-BR/inteligencia-artificial/)” mostrou que falta diversidade nas empresas de IA: 49% não têm mulheres na liderança, 61% não têm pessoas negras nestes cargos e 71% não têm pessoas LGBTQIAPN+. Sem o olhar diverso, será que os programas de IA e os algoritmos que estão sendo desenvolvidos nesse ecossistema têm a premissa de incluir todas as pessoas em sua diversidade? Muito provavelmente não.
Uma iniciativa brasileira que está indo na contramão desta tendência é a [DEB](https://www.instagram.com/chamaadeb/), uma IA desenvolvida pelo [Instituto Identidades do Brasil](https://www.simaigualdaderacial.com.br/), ONG que promove a igualdade racial no mercado de trabalho e na sociedade. Desenvolvida por uma equipe de especialistas em diversidade do Instituto, DEB tira dúvidas sobre a pauta étnico-racial, apoiando o letramento racial de empresas e organizações.
Antes de finalizar, quero destacar uma fala de Joy Buolamwini, a pesquisadora do início desse texto que, depois de ter descoberto as falhas nos sistemas de reconhecimento facial de pessoas pretas, intensificou os estudos e fundou a Liga da Justiça Algorítmica, além de publicar o best-seller Unmasking AI. Sua reflexão resume de forma exemplar porque as empresas têm de se preocupar com o tema, se não pela questão ética, pelo impacto disso no negócio: “Se você criou uma ferramenta de IA que não funciona para a maioria das pessoas do mundo, você acha que realmente criou uma boa ferramenta?”