Estigmatização de gênero by design

As musas inspiradoras da inteligência artificial sob uma nova lente

por Maria Beatriz Previtali* e Rebeca Bacci*

Artigo originalmente publicado no JOTA.

É interessante ver como certas referências acompanham a história humana, apenas com roupagens diferentes ao longo do tempo. Por exemplo, a figura da “musa inspiradora”: nos grandes épicos gregos, os autores pediam a inspiração das nove musas para tratar de temas complexos como a história, a política, as ciências, as emoções humanas e outros saberes. Porém, em outros contextos e outros tempos, a musa era sobretudo sinônimo de beleza ou charme, capturados majoritariamente por um artista homem — ou seja, uma ênfase no aspecto externo, e não interno, da mulher. A figura do feminino é vista por uma lente romântica, idealizada e até fetichizada.

Trazendo para as relações existentes no campo da tecnologia, é possível traçar o paralelo entre o desenvolvedor de software como o artista e o produto desenvolvido como a sua arte, com a intersecção da mulher ser uma musa inspiradora. O próprio campo da inteligência artificial é frequentemente visto como abstrato, complexo e racional — características comumente atreladas ao homem —, mas que precisaria ser apresentado ao grande público de forma intuitiva, emocional e amigável — características socialmente ligadas à mulher.

Dessa forma, há modelos de softwares de inteligência artificial que utilizam a figura feminina como parâmetro para o seu desenvolvimento. Dentre esses modelos, as mais conhecidas são as assistentes virtuais, como Siri (Apple) e Cortana (Microsoft), e os robôs com características femininas[1], como Sophia — apesar de inúmeras outras existirem em diferentes aplicações e variando em complexidade.

Esse paralelo traçado demonstra como a mulher é enxergada pelos estigmas sociais. Para que a tecnologia informacional seja considerada uma revolução positiva, transformações devem vir dos aspectos econômico e social. Todavia, em relação ao segundo, problemas têm sido enfrentados diante da persistência de referências estereotipadas ligadas à figura feminina. Isso porque, com a valorização econômica da tecnologia da informação, mulheres nesse setor foram e permanecem marginalizadas em aspectos relacionados à ocupação de espaço no mercado de trabalho e colocadas em posição de subalternização.[2]

Por conseguinte, tais fatores influenciam no desenvolvimento, design e uso dos modelos de inteligência artificial citados. Para ilustrar, o jornal The Guardian publicou uma matéria que evidencia a maior probabilidade de corpos femininos serem sexualizados que corpos masculinos por softwares de sites de busca e por plataformas de redes sociais.[3] Em entrevista publicada pela Unesco sobre o uso de algoritmos, as autoras da obra L’intelligence artificielle, pas sans elles! (“Inteligência Artificial, não sem elas!”, em tradução livre) citam que o uso de nome e voz feminina para o modelo de sistemas de assistência era associado à fraqueza por desempenhar uma tarefa específica.[4]

Essa influência no desenvolvimento e design do produto de inteligência artificial reflete premissas adotadas pelos desenvolvedores, como: (i) a associação da figura feminina a secretárias, o que acarreta a visão hierárquica, (ii) o entendimento de que a inteligência artificial é um instrumento que pode ser utilizado para trabalho afetivo — ligado à comunicação e habilidades emocionais —, o que atrela a figura feminina apenas ao emocional e intuitivo, excluindo outras aptidões[5], e (iii) a desconsideração de uma perspectiva de gênero na elaboração de um produto, o que deriva de um contágio sexista no desenvolvimento de um software. Recentemente, surgiu uma nova questão: foi identificado que grandes bancos de imagens utilizados no treinamento de inteligências artificiais como o Lensa App[6] continham conteúdo pornográfico em suas bases o que, consequentemente, influencia o treinamento dos softwares[7] e reforça a fetichização da mulher.

Decerto, a figura feminina é tratada como submissa e dócil, além de ser fetichizada durante a elaboração de produtos de inteligência artificial com ideais de gênero atrelados. Isso impacta a sociedade de forma negativa em razão da manutenção de padrões que devem ser rompidos e reprimidos em tecnologias que são consideradas transgressoras e revolucionárias do ponto de vista econômico.

Atualmente, empresas recebem incentivos mercadológicos para atender a parâmetros socioeconômicos. Por isso, ações envolvendo enviesamento desde a concepção do produto não são mais toleradas pelo próprio mercado econômico, que orienta empresas a8 investir em aprendizagem de máquina para que os modelos de assistentes virtuais venham com diferentes tipos de voz desde sua concepção; (ii) determinar padrões no desenvolvimento de inteligência artificial; e (iii) promover ações de inclusão e diversidade tanto na contratação como no desenvolvimento dos produtos.

Nessa linha, a orientação a respeito de inclusão pode observar o padrão ESG[9] (Environmental, Social and Governance), o qual corresponde a práticas sociais, ambientais e de governança de uma organização. A observância dessas práticas acarreta melhor posicionamento no mercado na medida em que sua nota indica solidez, custos mais baixos e melhor preparo no caso de incidentes. Com relação à perspectiva de gênero, empresas do mercado tecnológico devem concentrar esforços no aspecto social.

Finalmente, do aspecto legislativo, a presença de princípios éticos no AI Act (proposta de lei europeia para inteligência artificial)[10] e no guia orientativo formulado pela Comissão Europeia[11] indica a consideração de medidas relacionadas à privacidade, proteção de dados pessoais, governança, assim como transparência no desenvolvimento de softwares, responsabilização, prestação de contas e, principalmente, equidade. Esta última indica a tomada de ações para equilibrar relações desiguais, o que inclui a questão de gênero, principalmente pela lente social voltada à figura feminina e o reflexo nas tecnologias emergentes.

A partir das perspectivas elencadas, é possível indicar medidas que podem ser consideradas, de forma preventiva, por empresas de tecnologia. Dentre essas medidas, são apontadas (i) a própria tomada de consciência do ser humano sobre o impacto que a inteligência artificial tem na sociedade; (ii) o fomento da presença feminina na área de inteligência artificial — de acordo com levantamento feito pela Unesco em 2019,[12] as mulheres representavam 12% de pesquisadoras em inteligência artificial e 6% de desenvolvedoras de software; (iii) treinamentos envolvendo princípios de ethics by design aos desenvolvedores; (iv) a formação de equipe intersetorial para revisar e acompanhar a elaboração desses produtos; e (v) a realização de avaliação de risco sob a perspectiva de direitos fundamentais.

Portanto, tem-se aqui uma oportunidade brilhante para, novamente, ressignificar a musa inspiradora, seguindo os novos ideais contemporâneos que permitiram o próprio desenvolvimento da inteligência artificial. Não se trata de abolir a referência da figura feminina, mas, sim, de reconhecer que a inspiração pode — e deve — vir além da simples aparência ou de um comportamento isolado de uma mulher imaginária.

Se os próprios gregos antigos buscavam inspiração em nove musas para temas complexos como poemas épicos e a astronomia, hoje em dia a gama de assuntos para os quais se tem de extrair inspiração da figura feminina é muito maior. Na seara da inteligência artificial, desenvolvedoras e pesquisadoras no ramo tecnológico ocupando espaços são um exemplo, assim como a presença de mulheres em áreas como ciências exatas e segurança, e em posição de autoridade.

Em sua verdadeira essência, a musa inspiradora ainda é a figura a quem o artista recorre, independentemente de seu tempo ou seu meio, para concretizar a sua arte. Basta apenas um esforço do artista — e daqueles ao seu redor — para enxergar novas formas de inspiração além da beleza estética.

*MARIA BEATRIZ PREVITALI – Advogada na área de Proteção de Dados Pessoais do Opice Blum Advogados. Especialista em Direito Digital pela UERJ/ITS-Rio. Graduada em Direito pela Faculdade de Direito da USP.
*REBECA BACCI – Advogada na área de Proteção de Dados Pessoais do Opice Blum Advogados. Pós-graduanda em Direito Digital pela Fundação Getulio Vargas. Graduada em Direito pela PUC-SP
.
___________________

[1]MANASI, Ardras et al. Mirroring the bias: gender and artificial intelligence. Gender, Technology and Development, v. 26, n 3, 8 nov. 2022. Disponível em: https://www.tandfonline.com/doi/full/10.1080/09718524.2022.2128254. Acesso em: 16 fev. 2023.

[2]BARDON, Àgnes. Our Guests: Aude Berheim and Flora Vincent – We must educate algorithms. Unesco, v. 2020, n. 4, p. 43-45, nov. 2020. DOI https://doi.org/10.18356/5b7677b4-en. Disponível em: https://www.un-ilibrary.org/content/journals/22202293/2020/4/13/read. Acesso em: 16 fev. 2023.

[3]MAURO, Gianluca; SCHELLMANN, Hilke. ‘There is no standard’: investigation finds AI algorithms objectify women’s bodies. The Guardian, 8 fev. 2023. Disponível em: https://www.theguardian.com/technology/2023/feb/08/biased-ai-algorithms-racy-women-bodies. Acesso em: 16 fev. 2023.

[4]BARDON, Àgnes. Our Guests: Aude Berheim and Flora Vincent – We must educate algorithms. Unesco, v. 2020, n. 4, p. 43-45, nov. 2020. DOI https://doi.org/10.18356/5b7677b4-en. Disponível em: https://www.un-ilibrary.org/content/journals/22202293/2020/4/13/read. Acesso em: 16 fev. 2023.

[5]MANASI, Ardras et al. Mirroring the bias: gender and artificial intelligence. Gender, Technology and Development, v. 26, n 3, 8 nov. 2022. Disponível em: https://www.tandfonline.com/doi/full/10.1080/09718524.2022.2128254. Acesso em: 16 fev. 2023.

[6]SNOW, Olivia. ‘Magic Avatar’ App Lensa Generated Nudes From My Childhood Photos. Wired, dez. 2022. Disponível em: https://www.wired.com/story/lensa-artificial-intelligence-csem/. Acesso em: 16 fev. 2023.

[7]COOPERSMITH, Jonathan. Pornography, Technology and Progress. International Committee for the History of Technology (ICOHTEC), v. 4, p. 94-125, 1998. Acesso em: 16 fev. 2023.

[8]FISHER, Ella. Gender Bias in AI: Why Voice Assistants Are Female. Adapt, 6 jul. 2021. Disponível em: https://www.adaptworldwide.com/insights/2021/gender-bias-in-ai-why-voice-assistants-are-female. Acesso em: 16 fev. 2023.

[9]PACTO GLOBAL BRASIL. Definição de ESG. Disponível em: https://www.pactoglobal.org.br/pg/esg. Acesso em: 16 fev. 2023.

[10]COMISSÃO EUROPEIA. AI Act. Disponível em: https://artificialintelligenceact.eu/wp-content/uploads/2022/11/AIA-CZ-Draft-for-Coreper-3-Nov-22.pdf. Acesso em: 16 fev. 2023.

[11]COMISSÃO EUROPEIA. Ethics By Design and Ethics of Use Approaches for Artificial Intelligence. 25 nov. 2021. Disponível em: https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/guidance/ethics-by-design-and-ethics-of-use-approaches-for-artificial-intelligence_he_en.pdf. Acesso em: 16 fev. 2023.

[12]UNESCO. First UNESCO recommendations to combat gender bias in applications using artificial intelligence. UNESCO News, 21 abr. 2021. Disponível em: https://www.unesco.org/en/articles/first-unesco-recommendations-combat-gender-bias-applications-using-artificial-intelligence. Acesso em: 16 fev. 2023.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand
© 2023 Todos os direitos reservados. | Build by Mamutt

+55 11 2189-0061
contato@opiceblum.com.br

Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand

Al. Joaquim Eugênio de Lima, 680,

1º andar, Jardim Paulista – São Paulo / SP

+55 11 2189-0061
contato@opiceblum.com.br

© 2023 Todos os direitos reservados.
| Site designed by FutureBrand
| Build by Mamutt