Por que a ética deve permear os algoritmos de inteligência artificial?

por Caio César Carvalho Lima


Decisões relevantes têm sido, cada vez mais, realizadas com o uso inteligência artificial, ainda que não se tenha tanta consciência disso. Quem vai receber um empréstimo bancário, assim como a taxa que será ofertada; a quem será oferecida uma vaga de emprego; e até mesmo quem será selecionado para entrevista numa universidade pode ter por trás “dedos robotizados”, ou melhor dizendo, algoritmos…

Mas a questão que fica é: como saber se não haverá viés ou propensão das ferramentas tecnológicas ao tomarem essas decisões? Tais resultados podem ser influenciados de acordo com a realidade de quem fizer a programação, ainda que não se trate de algo intencional, representando os vieses inconscientes.

Isso não é de fácil investigação, exigindo complexas confirmações técnicas e que podem ter grandes variações. A cada nova consulta realizada com o algoritmo, a depender dos dados de entrada, as respostas podem ser diferentes.

E essa questão não é nova. Em 1988, uma Escola de Medicina no Reino Unido identificou que o programa de computador que selecionava os candidatos para as entrevistas admissionais era tendencioso contra candidatos com nomes não europeus e do gênero feminino. Diversos outros casos como esse têm sido identificados nos últimos 30 anos.

E isso pode se repetir especialmente se o programa for desenhado por equipes com pouca diversidade, diante da tendência de que o algoritmo seja “imagem-reflexo” do pensamento daqueles que estão diretamente responsáveis pela sua elaboração.

Justamente com o objetivo de ter maior controle sobre esse tema, grandes empresas de tecnologia (como Google, Facebook, Amazon, IBM, Microsoft, entre outras) já começam a ter em seus Conselhos membros focados nessa temática. A principal missão é acompanhar de perto os “julgamentos algorítmicos” buscando torná-los o mais neutro possível.

A própria apuração dessa neutralidade pode ser enviesada, uma vez que nos processos realizados por seres humanos também haverá tendência nas escolhas a serem confirmadas ou rejeitadas – crenças, preferências e aspirações podem influenciar essas definições, por mais que se deseje alcançar a imparcialidade. Não se trata, portanto, de aversão à tecnologia.

Assim, é importante confiar nas decisões algorítmicas, até mesmo para que se possibilite a análise de grande volume de dados com rapidez, eficiência e retorno mais assertivo, quando comparado com resultados que seriam obtidos se isso fosse realizado apenas por seres humanos. Com o crescimento da quantidade de informações em ambiente digital, isso se torna mais relevante.

A ética que permeia o desenvolvimento desses programas tem desafiado os estudiosos de diversas áreas, indo além do Direito e da Engenharia. Em breve, existirão padrões e boas práticas a serem seguidos pela indústria desde a concepção dessas novas ferramentas, o que vem sendo denominado de “ética by design”.

Caio César Carvalho Lima é professor e advogado, com atuação em Direito Digital e Proteção de Dados, e sócio do Opice Blum, Bruno e Vainzof Advogados Associados

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp