Estudo indica que Inteligência Artificial Explicável não é direcionada para o usuário final afetado por ela

linkedin cópia 3INTELIGêNCIA ARTIFICIAL

Estudo da Universidade de Cornell, nos Estados Unidos, aponta que a maioria das implantações de Inteligência Artificial Explicável não é para os usuários finais afetados por ela, mas para os engenheiros de machine learning, que usam a explicabilidade para depurar o próprio modelo. Há ainda uma distância entre as técnicas de explicabilidade adotadas e a transparência, já que as explicações atendem primeiro às necessidades dos stakeholders internos em vez dos externos.
A explicabilidade pode ser definida como a tentativa de iluminar o funcionamento do machine learning. Refere-se, portanto, a qualquer técnica que ajude o usuário ou desenvolvedor de modelos de machine learning a entender os motivos que levam os modelos a se comportarem de determinada forma. São várias explicações possíveis, como demonstrar aos pacientes os sintomas que indicam determinado diagnóstico e ajudar trabalhadores de fábrica a analisar ineficiências na cadeia de produção.
O objetivo é evitar que apenas os desenvolvedores – ou, em alguns casos, nem mesmo eles – consigam explicar por que a IA chegou a determinada decisão. A explicabilidade é uma forma de fortalecer a transparência dos modelos de machine learning. Transparência inclui uma série de esforços para fornecer aos stakeholders, especialmente aos usuários finais, informação sobre, por exemplo, como seus dados são utilizados e para que propósito. É um dos princípios da LGPD (Lei Geral de Proteção de Dados Pessoais), devendo ser observada pelos agentes de tratamento.

Como agir com transparência nos modelos de machine learning?
Há diversas formas para isso, ainda segundo o estudo da Universidade de Cornell. Uma delas é publicar o código do algoritmo, embora esse tipo de transparência não forneça explicação acessível para a maioria dos usuários. Afinal de contas, as pessoas, de forma geral, não entendem essa linguagem. Outra é divulgar as bases de dados utilizadas.
Geralmente, os usuários não compreendem como os dados brutos e os códigos se traduzem em benefícios ou danos que podem afetá-los individualmente. A linguagem muito técnica, como vimos, é uma barreira. Ao fornecer uma explicação de como o modelo tomou uma decisão, as técnicas de explicabilidade imprimem transparência à relação com os usuários, com o objetivo de aumentar a confiabilidade.
Nos casos de automatização da tomada de decisão, os artigos 13 a 15 do GDPR, regulamento europeu de proteção de dados, exigem que os titulares de dados tenham acesso a informações relevantes sobre a lógica envolvida, assim como ao significado e às consequências previstas para eles desse tratamento. Nesse sentido, companhias de tecnologia lançaram princípios de Inteligência Artificial com a transparência como valor de negócio, incluindo noções de explicabilidade, interpretabilidade e inteligibilidade.
No estudo da Universidade de Cornell, foram entrevistadas cerca de 50 pessoas de aproximadamente 30 organizações para entender as técnicas de explicabilidade atualmente usadas e como são empregadas.

Como melhorar a explicabilidade na Inteligência Artificial?
De acordo com as entrevistas realizadas, os pesquisadores identificaram três passos importantes para melhorar a explicabilidade: identificar claramente o público-alvo; compreender suas necessidades; e entender o propósito da explicação.

1) Identificar os stakeholders
Quem é o alvo das explicações sobre o funcionamento do machine learning? Para identificar o público-alvo, basta olhar para quem está sendo afetado pelo modelo de machine learning. Possivelmente, esses consumidores afetados têm necessidades distintas, motivo pelo qual a comunicação deve variar, para que possa considerar essas particularidades. As diferenças entre os consumidores são importantes para melhorar – tornar mais precisas – as técnicas de explicabilidade utilizadas.

2) Engajar com cada stakeholder
De acordo com as conclusões do estudo, é recomendável fazer perguntas como “O que você precisa que expliquemos a você a fim de compreender, confiar ou contestar nosso modelo de machine learning?” e “Qual tipo de explicação você quer do modelo que usamos para você?”.

3) Entender o propósito da explicação
É preciso entender o que o stakeholder quer fazer com a explicação. Existe a possibilidade, por exemplo, de o stakeholder mostrar a explicação para outro como forma de justificar uma predição particular.

Saiba mais sobre o estudo aqui.
Sugerimos também a leitura da nossa cartilha “Vieses Inconscientes de Gênero na Inteligência Artificial”. Acesse aqui.

Para mais informações, nossas equipes continuam à disposição.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp