Seminário: governança dos sistemas de IA contribui para a confiança dos usuários

seminário ia_Report

Avaliar o impacto e mapear os riscos dos sistemas de Inteligência Artificial, prevenir vieses discriminatórios, documentar o seu funcionamento, testá-lo e ser transparente quanto ao seu emprego na interação com os usuários fortalecem a confiança no uso da tecnologia”. Essa frase, de autoria do nosso sócio Rony Vainzof, marcou a abertura do seminário “Inteligência Artificial em Perspectiva: Competitividade e Desenvolvimento” (clique aqui para assistir ao webinário), realizado pela Fecomercio/SP, em parceria com a Opice Blum Academy (OBAC), na última sexta-feira, dia 15 de outubro.

No mesmo dia, foi lançado o livro “Inteligência Artificial: Sociedade, Economia e Estado”, uma coletânea de artigos contendo visões multidisciplinares sobre a Inteligência Artificial, voltados para a construção e o desenvolvimento sustentável da sociedade digital e aliados a questões jurídicas, sociais, econômicas e de Estado. Entre os diferentes temas abordados estão ética, boas práticas e regulação, além de empreendedorismo, futuro do mercado e transformação do Estado.

O evento, dividido em quatro painéis, contou com a moderação de Vainzof e de Andriei Gutierrez, diretor de Relações Políticas e Governamentais da Kyndryl e coordenador da Frente Empresarial em Defesa da LGDP e da Segurança Jurídica. Segundo Gutierrez, a ideia de que os dados são o novo petróleo não é a mais adequada, pois “o dado é tão essencial para a sociedade que a melhor comparação deveria ser com o trabalho”.

IA e a Estratégia Brasileira

O primeiro painel contou com as presenças de Fabio Cozman, diretor do Centro de Inteligência Artificial da Universidade de São Paulo; Juliana Domingues, Secretária Nacional do Consumidor da Senacon; e José Gontijo, diretor de Ciência, Tecnologia e Inovação Digital na Secretaria de Empreendedorismo e Inovação (MCTI).

No debate, foi discutida a criação de estratégias consistentes para a formação de profissionais de tecnologia no país. Para Andriei Gutierrez, ainda é difícil contratar profissionais especialistas em segurança cibernética ou ciência de dados. José Gontijo afirmou que “é preciso um arranjo institucional, não só do MEC (Ministério da Educação). Por mais que tenha uma BNCC (Base Nacional Comum Curricular), se não tivermos pessoas qualificadas, nada vai adiantar a criação de vagas. É necessário também preparar as novas gerações”.

Ele defendeu a parceria de Estados e Municípios, responsáveis pelo Ensino Fundamental, com o Governo Federal. Ainda segundo Gontijo, os setores da sociedade devem regular os sistemas de IA partindo do PL 21/2020, aprovado pela Câmara dos Deputados e que cria o Marco Legal da Inteligência Artificial no país. Juliana Domingues destacou que a IA é tema que merece atenção da sociedade, já que altera significativamente as relações jurídicas e as lógicas empresariais.

Ainda nessa discussão sobre formação de profissionais, Fabio Cozman ressaltou que essa é uma dificuldade internacional, e que o Brasil precisa se preocupar não só com a estratégia educacional a nível médio, mas com a formação de bons profissionais em estágios mais avançados. “É um esforço de organização e interação com as empresas. Essa área tem dificuldade de diversidade e inclusão”, disse.

Para exemplificar, o Diretor do Centro de Inteligência Artificial da USP defendeu que os profissionais precisam perder o medo das novas tecnologias, sendo necessário, para isso, que eles entendam como funcionam os sistemas de IA e seus conceitos. “É preciso maior familiaridade não só com a Matemática tradicional, ou a Ciência, mas com a aplicação da computação na formação do brasileiro”, concluiu.

Nesse sentido, a Estratégia Brasileira de Inteligência Artificial (EBIA) reúne orientações ao Estado brasileiro para o fomento de ações que estimulem pesquisa, inovação e desenvolvimento de soluções em IA, assim como seu uso consciente, ético e em benefício da sociedade.

IA e Sustentabilidade: Ética, Regulação e Inclusão

Diante da discussão sobre a criação de estratégias para a boa prática da IA no país, o segundo painel abordou o uso ético da tecnologia, bem como a necessidade de regulação dos sistemas de IA e a difusão de sua aplicação.

O debate contou com a presença de Rogeria Leoni Cruz, diretora jurídica e DPO do Hospital Israelita Albert Einstein; Juliano Maranhão, professor da Faculdade de Direito da USP e membro do Comitê Diretor da Associação Internacional de Inteligência Artificial e Direito; Marina Feferbaum, professora e coordenadora do Centro de Ensino e Pesquisa em Inovação da Faculdade de Direito da Fundação Getulio Vargas de São Paulo; Fabro Steibel, diretor-executivo do Instituto de Tecnologia e Sociedade do Rio; e Luiz Maia, coordenador do Comitê ESG da Fecomercio-SP.

Juliano Maranhão abordou a necessidade de transparência dos sistemas de IA. “Há malefícios na subutilização da IA, por isso, precisamos da regulação. Há também risco causado pela super utilização da tecnologia. Com relação a isso, transparência é palavra-chave, principalmente em relação ao grau de envolvimento humano”, disse. Para ele, apenas há a garantia do princípio da explicabilidade da IA, definido na EBIA, se estivermos diante do fator humano da tecnologia.

“A regulação é apenas um dos pilares que precisamos olhar quando falamos de Inteligência Artificial”, defendeu Marina. Ela citou que a Academia tem falado em três pilares: regulação, governança digital e ética baseada nos direitos humanos. Nesse mesmo sentido, Fabro Steibel pontuou que as discussões sobre os princípios da IA tiveram início em 2016, o que é algo novo. “O debate parte de fora do governo e vai ocupando as esferas do governo. A diversidade vai entrar no amplo debate de direitos objetivos e direitos fundamentais”.

Ainda segundo ele, a ideia é não partir de uma regulação intensa da Inteligência Artificial, pois se trata de um universo ainda em transformação. “Se você pensar em regulação, corregulação e autorregulação, isso combinado, acho que pode dar certo”, concluiu.

Já para Luiz Maia, há uma preocupação com a regulamentação da tecnologia, muito em razão do “uso fora de controle dos algoritmos”. Para ele, apesar de a IA estar levando a sociedade para outro patamar, “a gente não sabe dos princípios e valores de quem cria e de quem usa os algoritmos”.

Na Saúde, por exemplo, como explicou a DPO do Albert Einstein, “a IA tem atuado para aumentar a segurança e a eficácia dos tratamentos médicos”, sendo, ainda, aliada às pesquisas no setor. Para Rogéria, os sistemas de Inteligência Artificial também permitem que o elevado número de dados gerados pela Saúde possa ser utilizado pelo Poder Público para melhorias no setor.

IA: Desenvolvimento, Inovação e Competitividade

No cenário econômico, Andriei Gutierrez ressaltou que, uma vez que existem as responsabilidades social e ambiental, por exemplo, talvez seja o caso de se falar também em responsabilidade algorítmica da empresa que utiliza ou produz sistema de Inteligência Artificial. Para José Gontijo, existe ainda o desafio de educar as empresas diante dessas novas tecnologias, sendo necessária, inclusive, a atuação do Estado na promoção da concorrência no mercado.

Já para o Diretor de Relações Governamentais e Assuntos Regulatórios na IBM Brasil e América Latina, Fabio Rua, a IA não tem sido prioridade para o Estado brasileiro, uma vez que ainda há “falta de visão estratégica e política para sermos colocados no rol de países que olham a IA de forma estruturada, com o objetivo de trazer desenvolvimento econômico e reduzir as desigualdades”. Ele voltou a mencionar a falta de mão de obra qualificada para o setor e destacou que é necessária uma visão mais ampla sobre a tecnologia, não partindo apenas do setor privado.

Para melhor regulação dos sistemas de IA no país, a Estratégia Brasileira de Inteligência Artificial, pautada nos princípios definidos pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico), prevê que a tecnologia deve se basear em: crescimento inclusivo, desenvolvimento sustentável e bem-estar; valores centrados no ser humano e na equidade; transparência e explicabilidade; robustez, segurança e proteção; e responsabilização ou prestação de contas (accountability).

IA: Futuro do Estado e o Estado do Futuro

Sobre a relação entre Estado e tecnologia, para a diretora da Autoridade Nacional de Proteção de Dados (ANPD), Miriam Wimmer, “a confiança é uma palavra-chave”. Para ela, “a não utilização de tecnologia, ausência de investimento e a falta de incorporação dessas ferramentas na máquina pública são fenômenos que podem existir em razão da falta de confiança na IA”.

A diretora da ANPD ainda destacou que, nesse aspecto, a LGPD (Lei Geral de Proteção de Dados) funciona como ferramenta para a construção da confiança do cidadão nas novas tecnologias, com reflexos não só no uso da IA pela sociedade como nos números do investimento para o setor. “Eu destacaria que um componente essencial deve se debruçar sobre a ética e a criação de princípios, um dos aspectos cruciais na construção de um ambiente de confiança. E a necessidade da preservação do espaço para que os seres humanos possam se beneficiar de um sistema em que o risco é grande”, disse.

Para exemplificar, Rony Vainzof disse que, ainda hoje, é difícil para o cidadão saber como seus dados são utilizados pelas empresas, o que pode causar certa desconfiança nos sistemas de Inteligência Artificial. “Essas novas legislações que são discutidas, primeiramente na UE, e agora com a LGPD, com a autodeterminação afirmativa, é um pouco da devolução do controle dos dados ao próprio indivíduo. As empresas devem adquirir a confiança do indivíduo, aumentando a sua competitividade”, defendeu o advogado.

O ex-ministro Valdir Simão, que também participou do seminário, ressaltou o papel da ANPD na participação ativa do cidadão nas decisões governamentais. Para ele, “se não retomarmos a governança de nossos dados, enquanto sociedade, podemos colocar em risco nosso futuro, da tecnologia e da democracia”.

Marco Legal da IA e debates

O PL 21/2020, aprovado pela Câmara dos Deputados na forma de substitutivo, que trata da criação do Marco Legal da IA no país, apresenta diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento dos sistemas de Inteligência Artificial, entre as quais se destacam:

(i) dever de estimular a criação de mecanismos de governança transparente e colaborativa com a participação de representantes de vários setores;

(ii) promover a cooperação internacional e a negociação de tratados, acordos e padrões técnicos globais que facilitem a “conversa” (interoperabilidade) entre os sistemas e a harmonização da legislação a esse respeito; e

(iii) estimular a adoção de instrumentos regulatórios que promovam a inovação.

Em proposta para o aperfeiçoamento do PL 21/2020, nosso chairman e sócio-fundador, Renato Opice Blum, e nosso sócio Rony Vainzof, em coautoria com outros parceiros, propuseram que a disponibilização ou operação de sistemas de inteligência artificial de risco elevado pressupõe criação, implantação e documentação prévia de sistemas de governança de riscos, que deverão incluir as seguintes medidas:

(i) análises de impacto e mapeamento dos riscos associados aos usos esperados do sistema, bem como de eventuais formas de mau uso;

(ii) governança dos dados utilizados para treinamento, teste e validação do sistema, bem como controle e prevenção de vieses discriminatórios;

(iii) documentação a respeito do funcionamento do sistema e das decisões envolvidas em sua construção, implementação e uso;

(iv) registro automático dos eventos ocorridos durante a operação do sistema;

(v) ferramentas interface homem-máquina apropriadas, que possam ser eficazmente auditadas;

(vi) transparência quanto ao emprego de sistemas de inteligência artificial na interação com pessoas físicas;

(vii) transparência dos sistemas nos processos decisórios e na interpretação de seus resultados;

(viii) testes que assegurem, considerando a finalidade de emprego do sistema de IA, níveis apropriados de precisão, cobertura, acurácia, robustez e cibersegurança.

Ainda no webinário, o ex-ministro Valdir Simão disse que o PL 21/2020, apesar de ser um bom projeto, é principiológico, sendo necessário maior aprofundamento no tema. Em recente artigo publicado na Revista Consultor Jurídico (ConJur), nosso sócio Rony Vainzof escreveu, em coautoria com outros parceiros, que as propostas contempladas no PL 21/2020 “auxiliarão na concretização dos objetivos e ideais formulados na EBIA para o desenvolvimento de um ambiente de inovação tecnológica seguro e confiável para o crescimento da pesquisa e da produção de sistemas de IA no Brasil”.

Dessa forma, de modo geral, para os participantes do seminário “Inteligência Artificial em Perspectiva: Competitividade e Desenvolvimento”, não basta apenas a regulação do uso da Inteligência Artificial no país. É necessário que empresas, Poder Público e sociedade confiem nos sistemas, a partir do conhecimento das tecnologias, gerando, assim, maior investimento no setor. Para isso, é importante uma IA ética e explicável, com abordagem responsável no desenvolvimento da tecnologia.

Para outras informações, nossas equipes permanecem à disposição. Saiba mais aqui.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp