Diretrizes para o aperfeiçoamento do Marco Legal da IA no Brasil

marco legal ia_Noticia

POR Renato Opice Blum, Rony Vainzof, Juliano Souza de Albuquerque Maranhão, Ricardo Campos, Giovana Lopes e Samuel Rodrigues de Oliveira* (artigo publicado originariamente na revista ConJur)

O emprego de programas de computador baseados em técnicas de inteligência artificial (IA) nos mais diferentes campos de relações econômicas ou sociais ou a sua incorporação à robótica ou ao maquinário industrial traz consigo o potencial de contribuir para resultados benéficos para a sociedade, seja pelo aumento da produtividade, da redução de custos e da criação de novas oportunidades de investimentos ou disponibilização de novos produtos ou serviços.

Dado esse potencial, a IA passou a ser elemento-chave para o desenvolvimento empresarial e social, e, por conseguinte, da economia nacional, razão pela qual passou a ser elemento estratégico nos planos de desenvolvimento nacionais, tanto do ponto de vista de bem-estar interno como de sua atuação geopolítica e inserção na economia global. Não por outro motivo assistimos à divulgação de planos estratégicos de diversos países, líderes globais ou regionais, com delineamentos de fontes e procedimentos para investimento nessa tecnologia, aproveitando recursos e vantagens existentes ou buscando apoio externo para capacitação e subsídios técnicos para a área de pesquisa e desenvolvimento, tanto em âmbito acadêmico quanto industrial [1].

Contudo, os mesmos elementos e técnicas responsáveis por produzir tais benefícios socioeconômicos podem também trazer novos riscos a direitos fundamentais ou consequências adversas para os cidadãos e a sociedade, aspecto que tem sido abordado com maior ou menor ênfase em estratégias nacionais e que gerou a produção de uma série de documentos de organizações governamentais, não governamentais e de indústria elencando requisitos técnicos e éticos para o desenvolvimento de sistemas de inteligência artificial confiáveis e responsáveis.

Nesse sentido, propostas de regulação da tecnologia devem ter em mente a velocidade com a qual ela evolui, buscando impulsionar o investimento e evitar intervenções ex ante que possam limitá-lo ou inibi-lo, no sentido de obter as vantagens e os benefícios potenciais, mas também adotar mecanismos para mitigar riscos e abordar os aspectos éticos envolvidos.

Uma abordagem regulatória equilibrada, apta a propiciar mecanismos de estímulo e fomento ao investimento, bem como segurança jurídica em relação aos parâmetros de governança mínimos necessários à promoção de tecnologias éticas e seguras, revela-se necessária para garantir às pessoas a confiança para adotar soluções baseadas em IA e, simultaneamente, incentivar as empresas para que as desenvolvam.

De fato, a harmonização de ambos os interesses constitui o principal objetivo da Estratégia Brasileira de Inteligência Artificial (Ebia), publicada em abril deste ano pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações. Com o intuito de promover o desenvolvimento nacional na área, a Ebia traz orientações ao Estado brasileiro para o fomento de ações que estimulem pesquisa, inovação e desenvolvimento de soluções em IA, assim como seu uso consciente, ético e em benefício da sociedade.

Três meses após a publicação do documento, a Câmara dos Deputados aprovou em regime de urgência a votação do Projeto de Lei 21/2020, que iniciou sua tramitação no ano passado e que instaura o Marco Legal da IA no Brasil, determinando princípios, direitos, deveres e instrumentos de governança para o desenvolvimento da tecnologia. Naquele documento, não foram tratadas questões importantes, como a regulamentação e a disposição orçamentária para colocar em prática os projetos almejados. Ademais, o PL é generalista no tratamento das diferentes aplicações de IA.

Algumas das limitações foram abordadas pelo substitutivo ao PL 21/20, elaborado pela Comissão de Ciência e Tecnologia, Comunicação e Informática, relatado pela deputada Luíza Canziani. Assim, foram inseridos alguns padrões de governança para o desenvolvimento e o emprego de sistemas de IA, mas cuja obrigatoriedade ficou restrita apenas a projetos implementados pelo poder público. Ao pronunciar cautela em relação à intervenção externa na tecnologia, foi atribuída a tarefa de regulação específica da tecnologia a agências reguladoras setoriais, em uma abordagem baseada em risco, com uma indicação clara, como melhor caminho, da validação de códigos de conduta e de critérios de governança provenientes de autorregulação por parte dos agentes econômicos.

Nesse contexto, submetemos para apreciação da Frente Digital da Câmara dos Deputados proposta de aperfeiçoamento ao Projeto de Lei de Regulação da Inteligência Artificial (que segue ao final do presente texto), sugerindo a inserção de artigos aptos a viabilizar e estimular investimentos na área e a criação de uma estrutura de governança, baseada em risco trazido pelos sistemas de IA, mas que traga, em prol de um mínimo de convergência e segurança jurídica, um conjunto de padrões de governança vinculantes para sistemas de alto risco e voluntários para sistemas que não sejam de alto risco.

Também buscamos especificar quais seriam as condições mínimas para a validação, pelo Estado, de soluções de autorregulação, de modo a elevar sua legitimidade e confiança em relação aos sistemas. Entendemos que essa abordagem traria melhores condições para promover os valores elencados no PL 21/2020 e na Ebia.

No que tange ao estímulo e ao fomento ao investimento, a abordagem proposta tem por objetivo encontrar fontes de capital, desenvolver programas de apoio público e fomento a iniciativas de pesquisa e desenvolvimento, além de induzir parcerias entre setor público e entidades da sociedade civil, como academia, instituições de pesquisa, agências de fomento e indústria.

Assim, foi sugerida a vinculação do PL à observância de medidas de incentivo à inovação e à pesquisa científica estabelecidas pela Lei de Inovação Tecnológica, bem como aos parâmetros e regimes jurídicos previstos na legislação que trata de parcerias público-privadas. Objetivando a construção de ecossistema que potencialize iniciativas e estimule a concorrência, sugerimos, ainda, que o Ministério de Ciência, Tecnologia e Inovações promova programas e oportunidades de desenvolvimento para pequenas empresas e startups, inclusive com criação de ambientes controlados de inovação, como sandboxes e hubs regulatórios.

Finalmente, buscou-se conectar o objetivo de investimento e estímulo à pesquisa, inovação e desenvolvimento de soluções em IA com recursos oriundos de fundos públicos. Em relação ao Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), indicado pela Ebia como fonte de recursos, propõe-se inserir, na respectiva lei de constituição, a priorização de investimentos em IA, criando a modalidade de investimento associado a parcerias de pesquisa e desenvolvimento com entidades da sociedade civil. Em relação ao fundo cujas receitas são provenientes de indenizações por danos a interesses e direitos coletivos difusos, foi proposto inserir a pesquisa e o desenvolvimento de sistemas de IA em benefício da sociedade como uma possível destinação de recursos.

No que diz respeito à criação de uma estrutura de governança, o PL 21/2020 reconhece, em consonância com a Ebia, a necessidade de adoção de parâmetros éticos para mitigar riscos inerentes aos sistemas de IA, promovendo valores como segurança, transparência e centralidade no ser humano. O projeto avançou importante contribuição ao trazer, para o âmbito nacional, princípios éticos já consagrados internacionalmente, objetivando o desenvolvimento de quadro jurídico para uma IA de confiança e tendo como base os valores e direitos fundamentais do nosso ordenamento.

Entretanto, pautar a regulamentação da tecnologia apenas em padrões éticos pode não ser a estratégia adequada para alcançar os objetivos almejados com a regulação. Isso porque, embora uma norma principiológica estabeleça a nível geral e abstrato os valores a serem perseguidos, inexiste propriamente consenso sobre o significado e o alcance desses parâmetros éticos, ou seja, sobre quais seriam os compromissos de conduta deles derivados [2].

Além disso, a mera enunciação desses princípios sem o detalhamento de regras de conduta específicas resultaria em insegurança jurídica, na medida em que caberia ao Poder Judiciário interpretar e especificar obrigações por meio de interpretações fragmentadas da norma. Garantir a segurança jurídica é imprescindível para atrair investimentos e facilitar a inovação no domínio de IA.

Finalmente, destacamos que a implementação desses princípios será inviável se seu significado, importância e alcance não forem especificados para setores diversos ou tipos diferentes de aplicação. Desse modo, a utilização de um quadro baseado no risco revela-se uma opção mais adequada do que aplicar uma regulamentação generalizada a todos os sistemas de IA. Os tipos de riscos e de ameaças devem ser baseados numa abordagem setorial e casuística, levando em conta o impacto nos direitos e na segurança dos indivíduos.

Se, por um lado, o PL 21/2020 traz os requisitos baseados em princípios que os sistemas de IA devem respeitar — abrangentes o bastante para lidar com desenvolvimentos futuros —, por outro lado, propomos a criação de um sistema regulamentar proporcionado, centrado numa abordagem regulamentar baseada no risco e que não crie restrições desnecessárias ao uso da tecnologia, na qual a intervenção jurídica é adaptada às situações concretas em que existe um motivo de preocupação justificado acerca de determinada aplicação de IA.

Esse sistema regulamentar especificaria os padrões mínimos de governança, capazes de orientar os agentes envolvidos no desenvolvimento e na disponibilização de sistemas de IA sobre as condutas exigidas, por meio de um conjunto de obrigações procedimentais mandatórias para sistemas que envolvam risco elevado e voluntárias para sistemas que não envolvam risco.

Essa abordagem baseada em graus de risco e complementada por códigos de conduta para os sistemas de IA limita os riscos de violação a direitos fundamentais e à segurança dos cidadãos e promove a supervisão e a execução eficazes, ao associar os requisitos apenas aos sistemas em que existe um risco elevado de violações. Como consequência, mantêm-se os custos de conformidade a um valor mínimo, evitando desincentivos à adoção da tecnologia devido a preços e custos de conformidade mais elevados. Empresas que desenvolvam ou utilizem aplicações de IA que não sejam consideradas de risco elevado terão apenas obrigações mínimas de informação aos usuários, podendo adotar voluntariamente os requisitos exigidos dos sistemas de risco elevado como estratégia negocial.

Trata-se de forma de regulação moderna em relação a atividades que trazem riscos inerentes, mas cuja intervenção excessiva pelo Estado poderia limitar o desenvolvimento e a inovação, razão pela qual foi escolhida pela Comissão Europeia em proposta recente de regulamentação da inteligência artificial (o chamado EU Artificial Intelligence Act). Ademais, essa forma de regulação já foi adotada com sucesso pelo ordenamento jurídico brasileiro, sobretudo nas Leis nº 12.846/2013 (Lei Anticorrupção) e nº 13.709/2018 (Lei Geral de Proteção de Dados), levando a uma cultura de compliance e adequação de empresas às melhores práticas de governança corporativa.

Diferentemente da proposta europeia, porém, não propusemos de antemão limitações a tipos de inteligência artificial (proibições absolutas), nem mesmo a especificação ex ante do que seria inteligência artificial de alto risco, deixando tais definições para legislação, regulação ou autorregulação setorial posterior, a ser elaborada e implementada conforme o amadurecimento da tecnologia no Brasil e a identificação mais precisa dos riscos envolvidos em cada atividade ou aplicação. Por exemplo, aplicações de IA que possam resultar em danos à saúde, à integridade física e psíquica, em discriminação, na perda de benefícios sociais ou em prejuízos à correta administração da justiça são exemplos de usos da tecnologia que podem resultar em risco elevado.

No que diz respeito à regulação procedimental de melhores práticas a serem adotadas pelos desenvolvedores de sistemas de IA, entendemos que o melhor caminho a se seguir seja a adoção de soluções de corregulação ou “autorregulação regulada”. Tendo em vista a dinâmica de evolução constante da tecnologia em tela, a inovação e a diversidade de contextos para cada setor de aplicação, a mera imposição externa de normas pelo Estado, sobretudo genéricas e insensíveis a tais especificidades, não parece ser a alternativa adequada.

Por meio de mecanismos de corregulação, o Estado pode induzir a formação e reconhecer instituições de autorregulação de desenvolvimento responsável e ético da IA, bem como instituições de certificação que possam gerar confiança para o uso e o crescimento saudável dessa tecnologia no Brasil. Ademais, aproveitam-se, desse modo, estruturas já existentes, sendo desnecessária a criação de agências governamentais para tanto.

Acreditamos que as propostas sugeridas ao PL 21/2020, baseadas nos pilares de fomento à inovação e na indução de melhores práticas de governança para mitigação de riscos, via regulação e autorregulação, auxiliarão na concretização dos objetivos e ideais formulados na Ebia para o desenvolvimento de um ambiente de inovação tecnológica seguro e confiável para o crescimento da pesquisa e da produção de sistemas de IA no Brasil.

Clique aqui para ler a íntegra da proposta de aperfeiçoamento ao Projeto de Lei de Regulação da Inteligência Artificial.

[1] Veja-se: JOBIN, Anna; IENCA, Marcello; VAYENA, Effy. The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence, v. 1, 2019, p. 389-399; e LAWGORITHM. National Artificial Intelligence Strategies. 2 dez. 2019. Disponível em: https://lawgorithm.com.br/en/estrategias-ia/. Acesso em: 24 ago. 2021.

[2] MARANHÃO, Juliano. O Debate sobre o Marco Legal da Inteligência Artificial no Brasil. Estadão. 6 jul. 2021. Disponível em: https://politica.estadao.com.br/blogs/gestao-politica-e-sociedade/o-debate-sobre-o-marco-legal-da-inteligencia-artificial-no-brasil/. Acesso em: 23 ago. 2021.

*Renato Opice Blum é advogado e economista; chairman e sócio-fundador do Opice Blum, Bruno e Vainzof Advogados Associados; patrono regente do curso de pós-graduação em Direito Digital e Proteção de Dados da EBRADI; coordenador de cursos sobre Direito Digital e Proteção de Dados da FAAP, EPD e Insper; diretor da Itechlaw; membro do Conselho da EuroPrivacy; juiz do Inclusive Innovation Challenge do MIT; presidente da Associação Brasileira de Proteção de Dados (ABPDados); e vice-presidente da Comissão Especial de Direito e Inovação da OAB/SP.

*Rony Vainzof, advogado e professor especializado em Direito Digital e Proteção de Dados, é sócio do Opice Blum, Bruno e Vainzof Advogados Associados.

*Juliano Souza de Albuquerque Maranhão é diretor do Instituto LGPD.

*Ricardo Campos é diretor do instituto LGPD (Legal Grounds for Privacy Design) e docente assistente na Goethe Universität Frankfurt am Main (ALE).

*Giovana Lopes é doutoranda na Universidade de Bolonha, Itália.

*Samuel Rodrigues de Oliveira é pesquisador do Instituto Legal Grounds, doutorando em Teoria do Estado e Direito Constitucional pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e mestre em Direito e Inovação.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp