Discriminação de Gênero na Era do Big Data e da Inteligência Artificial

Artigo discute situações concretas no mercado de trabalho, em serviços financeiros ou na área da saúde que já demonstram como a IA pode atuar com vieses discriminatórios. Isto é, como a IA pode reforçar o preconceito contra a mulher e sabotar décadas de avanços em igualdade de gênero.
artes_bernardo_Instagram cópia 3

* por Bernardo Fico, Ana Catarina de Alencar e Beatriz de Sousa

O Dia Internacional da Mulher é, sobretudo, um marco de luta por direitos. As pautas já consolidadas no passado por equidade de cargos e salários, respeito à liberdade sexual e reprodutiva da mulher e combate ao feminicídio ainda se impõem no presente. Atualmente, contudo, além das pautas históricas, essa luta ganha contornos inerentes à era do Big Data e da Inteligência Artificial (IA). Assim, novos desafios se apresentam no contexto da digitalização e plataformização das sociedades, e, por esse motivo, é preciso falar sobre o futuro das mulheres e a luta por igualdade na era digital.

Situações concretas no mercado de trabalho, em serviços financeiros ou na área da saúde já demonstram como a IA pode atuar com vieses discriminatórios. Isto é, como a IA pode reforçar o preconceito contra a mulher e sabotar décadas de avanços em igualdade de gênero.

Isso não ocorre porque a IA seja ruim em si mesma ou inerentemente defeituosa, mas porque ela  aprende a partir de dados, que são coletados em um mundo complexo e, por vezes, desigual. Assim, as informações que alimentam os sistemas de aprendizado de máquina (base da IA) podem vir carregadas de pré-concepções, como estereótipos de gênero. Esses estereótipos, por sua vez, podem não representar adequadamente aspectos importantes da vida das mulheres, ou mesmo abarcar inferências errôneas levando a decisões discriminatórias em sistemas automatizados.

De acordo com o Gender Gap Report[1], do Fórum Econômico Mundial, a esmagadora maioria dos profissionais de IA é composta de homens, representando 72% dos postos de trabalho em 2020. Nas gigantes de tecnologia como o Facebook[2], 37% dos cargos são ocupados por mulheres. Já na Microsoft[3], esse percentual cai para 28,6%. Tendo em vista que a arquitetura dos sistemas de IA é pensada por pessoas, e que os dados alimentando os sistemas também são selecionados, é importante que empresas e profissionais de tecnologia tenham um olhar treinado às questões de gênero ao elaborarem seus produtos e sistemas. Isso passa, necessariamente, pela inclusão de mais mulheres nesse debate.

A escassez de mulheres nessa indústria pode motivar implicações no design de muitos de seus produtos, ao incorporarem as perceções dos seus desenvolvedores, o que ensejaria a perpetuação de estereótipos patriarcais nas tecnologias, como a subserviência atrelada à personalidade feminina em assistentes digitais[4]. Uma das tecnologias envolvidas no aprendizado dessas assistentes é o Natural Language Processing (NLP), que permite à máquina compreender e reproduzir a comunicação humana com diversas de suas variáveis linguísticas. Contudo, estudos mostram que o NLP pode incorporar vieses de gênero presentes nas informações que a IA usa para aprender a fazer associações; por exemplo, associando “computer programmer” a homem e “homemaker” a mulher[5]

Similarmente ao que ocorre com NLP, a discriminação de gênero também pode estar presente em algoritmos geradores de imagem. O MIT Technology Review publicou reportagem sobre um estudo mostrando que 43% das vezes em que algoritmos completavam a imagem de um homem, ele era retratado vestindo terno. Ao receber fotos de mulheres, em 53% das vezes, o algoritmo as completava vestindo um biquíni[6]. O resultado foi reproduzido mesmo quando a mulher em questão era uma política notória, como a congressista norte-americana Alexandria Ocasio-Cortez. Uma das preocupações expressadas na publicação é o impacto que esses algoritmos podem ter na vida das mulheres. Se esse tipo de viés for empregado em decisões de alto impacto (como recrutamentos com pré-seleção baseada em vídeos analisados por IA, englobando análise de imagem e linguagem), quais não podem ser as consequências para as candidatas?[7]

Essa preocupação com discriminação de gênero em seleção de candidatos por meio de IA não se restringe a algoritmos de análise de vídeos e, infelizmente, não é hipotética. Em 2017, uma grande companhia internacional de varejo descartou software de recrutamento baseado em IA porque a tecnologia se mostrou manifestamente enviesada em prejuízo de candidatas mulheres[8]. A ferramenta havia sido treinada com base em currículos recebidos pela empresa em um período de dez anos. Como a indústria de tecnologia é predominantemente masculina, a maior parte desses currículos eram de homens. Assim, a IA reconheceu como padrão que candidatos homens eram preferíveis e passou a rebaixar currículos de mulheres.

Há outros exemplos de reprodução da discriminação enraizada na sociedade por meio do aprendizado de máquina em diversos âmbitos e em prejuízo de minorias. Para citar alguns, temos máquinas fotográficas que identificavam pessoas de ascendência asiática como piscando em fotos; marcador automático de imagens que identificou um casal negro como gorilas; baixa eficiência do reconhecimento facial em mulheres e – particularmente – em mulheres negras; dentre outros.

Dessa forma, identificam-se duas principais formas pelas quais estereótipos (de gênero ou não) podem ser incorporados ao aprendizado de máquina. Por meio de sua concepção de arquitetura, ou por meio dos dados selecionados para treinar a IA. Nos citados casos de assistentes digitais, por exemplo, a discussão é a de incorporação de estereótipos de gênero no desenvolvimento da tecnologia. Em outros casos, contudo, os vieses estavam embutidos nas bases de dados utilizadas no treinamento da IA, que aprende a reproduzir esses vieses em sua atuação automatizada.

O alto potencial de impacto que a IA apresenta fez com que diversas organizações mundiais, como a Comissão Europeia[9] e a OCDE[10], elaborassem princípios éticos para guiar o desenvolvimento dessas tecnologias. Alguns dos fatores comuns a esses princípios são a privacidade e proteção de dados, transparência e equidade. Contudo, críticas apontam que as referências à igualdade de gênero e ao empoderamento feminino nos princípios existentes são escassas[11].

É importante que o setor tecnológico mantenha um olhar atento às questões de gênero. Esse olhar deve partir de diversas perspectivas, incluindo a garantia de diversidade nos times de desenvolvimento de produtos, testes para identificação de vieses cognitivos e transparência quanto a seus processos. Especificamente com base na Lei Geral de Proteção de Dados Pessoais (LGPD), é necessário que o tratamento de dados pessoais repetidamente realizado no desenvolvimento da Inteligência Artificial respeite os princípios norteadores da legislação, especialmente a não discriminação e a prestação de contas.

*Bernardo Fico é advogado da área de Proteção de Dados, Privacidade e Serviços de DPO do Opice Blum, Bruno e Vainzof Advogados Associados.

Beatriz de Sousa é estagiária da área de Proteção de Dados, Privacidade e Serviços de DPO do Opice Blum, Bruno e Vainzof Advogados Associados.

Ana Catarina de Alencar é advogada da Startup.OBA, área do escritório voltada para atendimento de startups e outros players de inovação.


[1] Disponível em: http://www3.weforum.org/docs/WEF_GGGR_2020.pdf. Acesso em 22.02.2021.

[2] Disponível em: https://www.statista.com/statistics/311827/facebook-employee-gender-global/. Acesso em 22.02.2021.

[3] Disponível em: https://www.thestatesman.com/technology/women-now-represent-28-6-microsofts-global-workforce-1502931069.html. Acesso em 22.02.2021.

[4] UNESCO, “I’d Blush if I Could: closing gender divides in digital skills through education”, Março de 2019. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1. Acesso em 24.02.2021.

[5] Sun et. al., “Mitigating Gender Bias in Natural Language Processing: Literature Review”. Disponível em: https://www.aclweb.org/anthology/P19-1159.pdf. Acesso em 24.02.2021. Outras referências: Caliskan et. al., “Semantics derived automatically from language corpora contain human-like biases”. Disponível em: https://science.sciencemag.org/content/356/6334/183. Acesso em 24.02.2021.

[6] Disponível em: https://www.technologyreview.com/2021/01/29/1017065/ai-image-generation-is-racist-sexist/. Acesso em 24.02.2021.

[7] A tecnologia referenciada na matéria do MIT Technology Review é a da empresa HireVue. Disponível em: https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether-you-deserve-job/. Acesso em 24.02.2021.

[8] Fonte: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G. Acesso em 25.02.2021.

[9] European Commission, “Ethics Guideline for Trustworthy AI”, 2019. Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Acesso em 25.02.21.

[10] Organização para a Cooperação e Desenvolvimento Econômico, “Recommendation of the Council on Artificial Intelligence”, 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Acesso em 25.02.21.

[11] UNESCO, “Artificial Intelligence and Gender Equality – Key findings of UNESCO’s Global Dialogue”, 2020. Disponível em: https://en.unesco.org/AI-and-GE-2020. Acesso em 24.02.21.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp