Inteligência Artificial e Boas Práticas Empresariais

MicrosoftTeams-image-25

POR Rony Vainzof* (artigo publicado originariamente no Valor Econômico)

Sistemas de IA (Inteligência Artificial), robótica, supercomputadores, big data, internet das coisas, computação em nuvem, criptografia, blockchain, 5G e sensores são apenas algumas das tecnologias condicionantes para o desenvolvimento econômico, social e digital de qualquer nação no século 21.

Elas nos permitem explorar níveis de conhecimento inimagináveis há poucos anos, abrindo margem para novas descobertas e contribuindo para a possível resolução de grandes desafios da humanidade na atualidade, como tratamento de doenças graves e mitigação de surtos pandêmicos, alterações climáticas, gestão de riscos financeiros, prevenção a acidentes automobilísticos e a ilícitos cibernéticos, apenas para citar alguns exemplos.

Porém, caso a evolução tecnológica não esteja revestida de confiança no ambiente digital, com segurança e respeito aos direitos dos indivíduos, por meio da ação estruturada, interligada e coordenada entre organizações públicas e agentes privados, potencialmente os objetivos de desenvolvimento estarão fadados ao fracasso ou a um ritmo de crescimento desacelerado.

Quando se trata de IA, ainda mais considerando seu crescente uso por empresas e governos, o citado requisito confiança se torna ainda mais fundamental, mormente em razão de os sistemas combinarem conectividade, autonomia e dados para desempenhar tarefas com pouca ou nenhuma supervisão ou controle humano e serem capazes de melhorar seu próprio desempenho graças à aprendizagem com sua própria experiência (machine learning).

Além disso, a opacidade do processo decisório da IA (dificuldade de decodificar o resultado gerado pelo algoritmo) torna mais complexo prever seu comportamento e compreender as possíveis causas de um evento danoso.

Por isso, quanto maior o risco das decisões e ações no uso da IA sobre o ser humano, como os que possam afetar direitos e garantias fundamentais (vida, liberdade, não discriminação, privacidade, entre outros), maior deverá ser o esforço de prevenção, responsabilização e prestação de contas pelos agentes responsáveis (accountability).

Seguindo recentíssimos parâmetros nacionais e internacionais, como os existentes nas recentes Estratégia Brasileira de Inteligência Artificial (09/04/21), Proposta de Regulamentação para a Inteligência Artificial da União Europeia (21/04/21) e Guidelines da Federal Trade Commission/EUA para o uso de IA (19/04/21), confirmar o respeito a princípios éticos (valores centrados no ser humano, justiça e equidade; transparência e explicabilidade; e robustez, segurança e proteção) e realizar uma Avaliação de Impacto da Inteligência Artificial para identificar a cadeia de responsáveis, especialmente nos casos em que o grau de autonomia e criticidade do uso de IA é alto, durante todo seu ciclo de vida, são diligências relevantes sob a perspectiva de boas práticas empresariais, principalmente diante da necessária abordagem mínima regulatória, baseada em risco e em camadas para regular sistemas de IA, de acordo com as normas legais e padrões já existentes e com base em práticas responsáveis das organizações.

Ou seja, idealmente, é importante que as organizações implementem programa ético de desenvolvimento ou de utilização de sistemas de IA abarcando elementos essenciais de responsabilidade e conformidade com as normas gerais aplicáveis (CF, CDC, Código Civil, LGPD, Marco Civil da Internet, Lei do Cadastro Positivo, apenas para citar alguns exemplos), confirmando a eficácia do referido programa e garantindo sua melhoria contínua.

Ademais, aplicar autônoma e voluntariamente códigos de conduta que avaliem os riscos dos sistemas de IA, garantir a qualidade dos conjuntos de dados que alimentam os sistemas para minimizar riscos e resultados discriminatórios, registrar atividades para a rastreabilidade dos resultados, documentar as informações sobre o sistema e sua finalidade para que as autoridades possam avaliar sua conformidade, prover informações claras aos usuários, adotar medidas de supervisão humana adequadas e ter um alto nível de robustez, segurança e precisão são medidas de accountability não só para mitigar eventuais sanções, responsabilizações ou danos aos indivíduos, mas também para reforçar a confiança, aceitação e investimentos em IA.

Referidos códigos de conduta também podem incluir compromissos voluntários relacionados, por exemplo, com sustentabilidade ambiental, acessibilidade, participação das partes interessadas na concepção e no desenvolvimento de sistemas de IA e na diversidade das equipes de desenvolvimento.

Assim, regulações baseadas em princípios e resultados são ideais para parametrizar celeumas resultantes do ritmo frenético da revolução digital, como sistemas de IA. Prover regras principiológicas, como as citadas acima, e pautadas em resultados permite às organizações progredir em direção à obtenção de resultados almejados avaliando riscos concretos, demonstráveis e por meio de medidas internas verificáveis. Felizmente, as discussões regulatórias no Brasil, nos EUA e na Europa (apesar desta abarcar a vedação expressa de alguns sistemas, como vigilância biométrica remota em tempo real em espaços públicos), mesmo com pesos e níveis de maturidade e exigências completamente distintos, caminham nesse sentido.

*Rony Vainzof é coordenador do curso de pós-graduação em Direito Digital da Escola Paulista de Direito e sócio do Opice Blum, Bruno e Vainzof Advogados Associados

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp