Empresas não conseguem explicar como modelo de IA adotado por elas toma decisões

PHOTO-2021-06-22-13-30-44

A implementação de sistemas de Inteligência Artificial nas empresas precisa ser algo planejado para garantir segurança e respeito aos direitos dos indivíduos. Há diversos benefícios no uso da IA, o que permite importantes avanços à sociedade, já que pode ser utilizada, entre outros fins, para tratamento de doenças, gestão de riscos financeiros e prevenção de ilícitos cibernéticos, desde que empregada com transparência e ética.

Levantamento recente produzido pela Corinium Intelligence em parceria com a FICO indica que a maior parte das empresas líderes de análise de dados – o equivalente a 65% – não consegue explicar como são tomadas as decisões ou previsões do modelo de Inteligência Artificial (IA) utilizado.

Denominado “State of Responsible AI”, o estudo evidenciou que, apesar do aumento da demanda, a falta de conhecimento sobre como a IA é utilizada preocupa, já que 39% dos membros do conselho das empresas e 33% das equipes executivas têm entendimento incompleto da ética aplicável ao tipo de tecnologia.

Foram entrevistados cem executivos analíticos e de dados de nível C (C-Level), que trabalham em empresas de serviços financeiros, seguros, varejo, saúde e farma, bem como dos setores de utilidades, público e de indústria manufatureira. Os resultados foram submetidos à análise de especialistas em IA pertencentes às seguintes entidades: MIT, AI Truth, The Alan Turing Institute, World Economic Forum, FinRegLab e FICO. 

O objetivo deste trabalho foi entender como as organizações estão implantando recursos de IA e garantindo que a tecnologia seja aplicada com ética, transparência e para o melhor interesse dos clientes. 

O que a pesquisa pretendeu mostrar é que, embora as áreas de tecnologia da informação e análise de dados dominem os processos de implementação da Inteligência Artificial nas empresas, é necessário também que os executivos e a liderança compreendam de que forma ela é utilizada, para garantir que as decisões tomadas por eles sejam responsáveis, justas e transparentes.

Ética da IA

O relatório elaborado pela FICO mostrou, ainda, que 55% dos entrevistados concordaram que os sistemas de Inteligência Artificial para coleta de dados devem atender a padrões éticos básicos. No entanto, quatro em cada dez afirmaram não ter responsabilidade para além de gerenciar os sistemas de IA, mesmo quando a tecnologia pode afetar a vida das pessoas de forma significativa.

“Executivos focados em IA estão prestando mais atenção em questões envolvendo ética na IA, mas ainda não demonstram consenso sobre quais responsabilidades as empresas têm em relação ao uso da IA”, de acordo com trecho do relatório divulgado.

Em outra parte, o estudo apontou que “as questões que sustentam a ética na IA variam de conjuntos de dados tendenciosos e dados de fontes não éticas para o uso injusto de sistemas de IA e a falta de responsabilidade quando as coisas dão errado”.

A pesquisa também pontuou que ainda não há consenso sobre o significado do termo ética aplicado aos sistemas de Inteligência Artificial, bem como até que ponto as responsabilidades devem ser estendidas aos executivos e líderes

Para chegar a essa conclusão, os entrevistados avaliaram uma variedade de usos de IA com base em três respostas:

1) Nenhuma responsabilidade além de garantir conformidade regulatória;

2) Os sistemas de IA devem atender à ética básica de padrões de justiça, transparência e de estar voltada para o melhor interesse dos clientes;

3) Os sistemas de IA devem atender a esse padrão de princípios éticos, produzindo resultados que possam ser explicados aos clientes.

A explicabilidade é um indicador-chave do uso responsável da Inteligência Artificial, porque, se uma empresa não pode explicar como um algoritmo toma decisões sobre seus clientes, não pode ter certeza sobre qual modelo está empregando. No relatório, apenas um terço das empresas ouvidas puderam explicar os processos de utilização da IA.

IA responsável

A pesquisa da FICO mostrou, ainda, que alguns líderes e executivos enxergam a IA responsável como um obstáculo ao ritmo de inovação – 62% dos entrevistados acham difícil equilibrar a curto prazo a responsabilidade com a inovação, e 78% dos técnicos afirmaram que encontram resistência dos executivos para a implementação do uso responsável da Inteligência Artificial. 

Em contrapartida, oito em cada dez empresas garantiram que têm buscado o uso responsável da tecnologia e reconhecem que os processos precisam mudar. Nesse sentido, quase dois terços dos entrevistados (63%) acreditam que a ética da IA e a IA responsável devem se tornar um elemento central da estratégia na empresa nos próximos dois anos.

Em resumo, a IA responsável é um padrão para que o uso da Inteligência Artificial seja seguro, confiável e imparcial, garantindo que os modelos de IA e Machine Learning (ML) sejam, por consequência, explicáveis, éticos e eficientes.

O objetivo da IA responsável é garantir que as organizações sejam capazes de compreender e cumprir os modelos em conformidade com quatro princípios de governança corporativa: prestação de contas (explicabilidade); justiça (ética); transparência; e responsabilidade.

Dessa forma, um sistema de IA deve garantir que todo e qualquer processo automatizado seja claro e explicável ao ser humano. A IA responsável pode definir como são construídos modelos interpretáveis ​​ou quando é correto usar um que seja menos interpretável. Em geral, quanto mais explicável é um modelo, mais fácil é garantir justiça e ética, bem como corrigir qualquer parcialidade.

Aplicação da IA responsável

Atualmente, quando se trata de IA, o que se espera é que empresas se autorregulem, criando e implementando as próprias diretrizes. No entanto, conforme relatório da FICO, em razão da falta de conhecimento de líderes e executivos nos processos que envolvem a Inteligência Artificial, essa realidade ainda é distante.

Empresas como Google, Microsoft e IBM têm suas próprias diretrizes. No entanto, nem toda empresa detém recursos para agir da mesma maneira. Uma solução, a princípio, seria que todas as empresas adotassem as mesmas diretrizes. Nesse sentido, a Comissão Europeia publicou recentemente as diretrizes de ética para IA confiável, com sete requisitos principais que a IA deve ter para ser considerada confiável.

Estudiosos apostam nessas diretrizes com força de lei, garantindo assim o efetivo cumprimento por parte das empresas, sob pena de aplicação de penalidades. É o que chamam de regulamentação da Inteligência Artificial. Ainda não há, contudo, consenso sobre como esse processo vai acontecer.

Para mais informações, nossas equipes permanecem à disposição.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp