Marco Regulatório de IA e a necessidade de amadurecimento dos debates

MicrosoftTeams-image-35

A Câmara dos Deputados discutirá o Projeto de Lei 21/2020, que cria o Marco Legal do Desenvolvimento e Uso da Inteligência Artificial no Brasil. A análise do texto, por enquanto, será feita em regime de urgência, o que dispensa as exigências formais e dá celeridade à tramitação na Casa.

A proposta, de autoria do deputado federal Eduardo Bismarck, estabelece princípios, direitos, deveres e instrumentos de governança para o uso da IA pelo Poder Público, pelas entidades privadas e pessoas físicas, considerando como sistema de Inteligência Artificial aquele baseado em processo computacional que pode, para determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que interfiram em ambientes físicos ou digitais”.

Anteriormente, o PL seria apreciado, em caráter conclusivo, pelas comissões de Ciência e Tecnologia, Comunicação e Informática; Trabalho, de Administração e Serviço Público; e Constituição e Justiça e de Cidadania. Dessa forma, a votação em Plenário aconteceria somente em casos de decisão divergente ou, independentemente de ser aprovado ou rejeitado, com recurso assinado por 52 deputados.

No Senado Federal, há o PL 872/2021, de autoria do senador Veneziano Vital do Rêgo, que dispõe sobre os marcos éticos e as diretrizes que fundamentam o desenvolvimento e o uso da Inteligência Artificial no Brasil. O relator, senador Eduardo Gomes, se posicionou pela necessidade de maior debate público sobre o tema.

Entendemos ser precipitada a votação do marco legal sobre o tema, que apresenta tamanha relevância para a economia do Brasil, sem antes haver amplo debate com a sociedade e especialistas para que tenhamos norma moderna, que não engesse a inovação e, ao mesmo tempo, traga segurança jurídica para as organizações. Ainda, tal norma deve adotar abordagem baseada no risco, de forma a distinguir os diferentes tipos de aplicação de IA existentes, evitando, assim, limitar de maneira excessiva usos possivelmente benéficos e com potencial de risco baixo ou mínimo.

Agentes e princípios da IA

O texto do PL 21/2020, apresentado na Câmara, prevê a figura dos agentes de IA – “pessoas físicas ou jurídicas, de direito público ou privado, e entes sem personalidade jurídica, compreendendo os agentes de desenvolvimento e de operação”

Os agentes de desenvolvimento são aqueles que participam das fases de planejamento e design, coleta e processamento de dados e construção de modelo; de verificação e validação; ou de implantação do sistema de IA. Já os demais participam da fase de monitoramento e operação do sistema de IA.

O PL estabelece como fundamentos para o uso da Inteligência Artificial no Brasil: (i) desenvolvimento tecnológico e inovação; (ii) livre iniciativa e livre concorrência; (iii) respeito aos direitos humanos e valores democráticos; (iv) igualdade, não discriminação, pluralidade e respeito aos direitos trabalhistas; e (v) privacidade e proteção de dados.

Com base nos “Princípios Éticos para a Administração Responsável de IA”, estabelecidos pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE), cujo documento o Brasil é signatário, o PL elenca como princípios para o uso da IA:

I) Finalidade: uso da IA para buscar resultados benéficos para as pessoas e para o planeta, com a finalidade de aumentar as capacidades humanas, reduzir as desigualdades sociais e promover o desenvolvimento sustentável;

II) Centralidade no ser humano: respeito à dignidade humana, à privacidade e à proteção de dados pessoais e aos direitos trabalhistas;

III) Não discriminação: impossibilidade de uso dos sistemas para fins discriminatórios, ilícitos ou abusivos;

IV) Transparência e explicabilidade: garantia de transparência sobre o uso e funcionamento dos sistemas de IA e da divulgação responsável de seu conhecimento, observados os segredos comercial e industrial, além da conscientização das partes interessadas sobre suas interações com os sistemas, inclusive no local de trabalho;

V) Segurança: utilização de medidas técnicas e administrativas, compatíveis com os padrões internacionais, permitindo a funcionalidade e o gerenciamento de riscos dos sistemas de IA, bem como garantindo a rastreabilidade dos processos e das decisões tomadas durante o ciclo de vida do sistema;

VI) Responsabilização e prestação de contas: demonstração, pelos agentes de Inteligência Artificial, do cumprimento das normas de IA e da adoção de medidas eficazes para o bom funcionamento dos sistemas, observadas suas funções.

Relatório de Impacto

Dentre os instrumentos de responsabilização e prestação de contas, o Marco Legal prevê o Relatório de Impacto de Inteligência Artificial – documentação dos agentes de IA que deve conter a descrição do ciclo de vida do sistema, bem como as medidas, as salvaguardas e os mecanismos de gerenciamento e mitigação dos riscos relacionados a cada fase do sistema, incluindo segurança e privacidade.

Nesse contexto, os entes da Federação poderão solicitar aos agentes dos sistemas de IA, observadas as suas funções e justificada a necessidade, a publicação de Relatórios de Impacto de Inteligência Artificial, além de recomendar a adoção de padrões e de boas práticas para implantação e operação dos sistemas.

Ainda, todos os envolvidos ou afetados, direta ou indiretamente, por sistemas de IA (denominados “partes interessadas”) terão direito: (i) à ciência da instituição responsável pelo sistema de IA; (ii) ao acesso a informações claras e adequadas sobre os critérios e os procedimentos utilizados pelo sistema de IA que lhes afetem adversamente (observados os segredos comercial e industrial); e (iii) ao acesso a informações claras e completas sobre o uso, pelos sistemas, de seus dados sensíveis.

O PL prevê que os direitos das partes interessadas poderão ser exercidos a qualquer momento, mediante requerimento à instituição responsável pelo sistema de IA ou aos demais agentes, observadas as suas funções. Já a defesa desses direitos poderá ser exercida em juízo, individual ou coletivamente.

Quanto aos deveres, os agentes de IA terão a obrigação de: (i) divulgar publicamente a instituição responsável pelo estabelecimento do sistema; (ii) assegurar que os dados utilizados pelo sistema observem a Lei Geral de Proteção de Dados Pessoais (LGPD); (iii) fornecer informações claras e adequadas sobre os critérios e procedimentos utilizados pelo sistema; (iv) proteger continuamente os sistemas de IA contra ameaças de segurança cibernética; (v) implantar um sistema de IA somente após a adequada avaliação de seus objetivos, benefícios e riscos relacionados a cada fase do sistema, promovendo seu encerramento caso o controle humano não seja mais possível.

Ademais, o Marco Legal estabelece que a responsabilidade pelos sistemas de IA deve residir nos agentes de desenvolvimento e de operação, observadas as suas funções, sendo, portanto, instituído o dever de que os agentes de Inteligência Artificial respondam, na forma da lei, pelas decisões tomadas por um sistema de IA.

Contexto global

A instituição de Marco Legal para o uso da IA no Brasil está inserida em contexto global de propostas regulatórias sobre o tema, tendo destaque a proposta de Regulamento para estabelecer regras harmonizadas sobre Inteligência Artificial lançada pela Comissão Europeia, em abril deste ano (Artificial Intelligence Act – COM/2021/206), no qual são impostas obrigações em relação aos sistemas de IA, que se aplicam desde os provedores até os usuários dos sistemas.

O Regulamento, discutido por mais de cinco anos na União Europeia, define sistemas de IA como um software desenvolvido por meio de abordagens e técnicas, podendo, para determinado conjunto de objetivos definidos por humanos, gerar resultados, a exemplo de conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais eles interagem.

O conceito adotado, embora amplo, é complementado pelo Anexo I do Regulamento, que define as técnicas e abordagens abrangidas pelo conceito de: 

  1. Aprendizado de máquina (supervisionado, não supervisionado e por reforço, usando uma ampla variedade de métodos, incluindo aprendizado profundo); 
  2. Abordagens lógicas e baseadas em conhecimento (incluindo representação de conhecimento, programação indutiva/lógica, bases de conhecimento, mecanismos de inferência/dedução, raciocínio simbólico e sistemas especialistas); e
  3. Abordagens estatísticas, estimação bayesiana, métodos de busca e otimização.

Além disso, certas aplicações de IA são proibidas pelo Regulamento da UE, que cria estrutura de regulação e processos de teste, monitoramento e conformidade. Diferentemente do previsto no PL 21/2020, a Comissão Europeia afastou o tratamento unitário de sistemas de IA, optando por regulação distinta, de acordo com usos e riscos associados a cada tipo de sistema.

Classificação do risco

O Regulamento discutido pela Comissão Europeia adotou, portanto, abordagem baseada no risco, diferenciando os usos de IA que criam: (i) risco inaceitável, (ii) risco alto; ou (iii) risco baixo ou mínimo.

Os sistemas de IA identificados como de alto risco são aqueles destinados a serem usados como componentes de segurança de produtos, ou que são eles próprios produtos, abrangidos pela legislação da UE listada no Anexo II do Regulamento. Abrangem dessa forma máquinas, brinquedos, elevadores, equipamentos de rádio, equipamentos de pressão, equipamentos marítimos, cabos, aparelhos de queima de gás e dispositivos médicos.

Também são considerados de alto risco os sistemas listados no Anexo III do documento, relacionados: (i) à identificação biométrica e categorização de pessoas naturais; (ii) à gestão e operação de infraestrutura crítica; (iii) à educação e formação profissional; (iv) ao emprego, à gestão de obras e ao acesso ao trabalho autônomo; (v) ao acesso e gozo de serviços privados essenciais e serviços públicos e benefícios; (vi) à aplicação da lei; (vii) à gestão de migração, asilo político e controle de fronteiras; e (viii) à administração de justiça e processos democráticos.

Os requisitos para a utilização de Inteligência Artificial de alto risco incluem a implementação de sistema de gerenciamento de risco por todo o ciclo de vida da tecnologia, de forma a eliminar ou reduzir os danos por meio de design e desenvolvimento adequados, implementação de medidas de mitigação e controle, fornecimento de informações, realização de treinamento e de testes.

Ainda, em se tratando de alto risco, a UE impõe vastas obrigações relacionadas à governança de dados; documentação técnica e manutenção de registros; transparência e prestação de contas; supervisão humana; precisão, robustez e segurança cibernética.

Outro ponto do Regulamento que merece destaque diz respeito ao registro de sistemas de IA de alto risco, que deverão, obrigatoriamente, além de registrados, ser mantidos em um banco de dados, abrangidas as informações fornecidas pelos fornecedores.

Responsabilização

No que diz respeito à responsabilização, a proposta de Regulamento da UE distingue as obrigações impostas aos fornecedores de sistemas de IA, fabricantes, importadores, distribuidores, usuários e terceiros envolvidos na cadeia de desenvolvimento e aplicação da Inteligência Artificial.

Nesse contexto, os fornecedores de sistemas de IA de alto risco são responsáveis por garantir a conformidade de seus sistemas com o regulamento proposto, implementando uma gestão de qualidade, além de elaborar documentação técnica pertinente, manter os registros gerados por seus sistemas, cumprir a avaliação de conformidade e obrigações de registro do sistema, bem como tomar as ações corretivas e cooperar com as autoridades. 

Já os fabricantes de produtos abrangidos pela legislação da UE, incluindo sistemas de IA de alto risco, são responsáveis pela conformidade, como se fossem os fornecedores do sistema.

Os distribuidores, importadores, usuários e outros terceiros também estão sujeitos às obrigações dos fornecedores, caso coloquem um sistema de IA de alto risco no mercado ou utilizem a tecnologia para prestar serviços em seu nome ou marca registrada. Esses também serão responsabilizados, caso modifiquem a finalidade pretendida pelo sistema, hipótese na qual o provedor original será isento de responsabilidade.

Os usuários, por vez, devem utilizar os sistemas de acordo com as instruções fornecidas, garantindo que os dados de entrada alimentados sejam relevantes, devendo, ainda, monitorar a operação com base nas instruções dadas por fabricantes, fornecedores e outros.

Ainda no que tange à responsabilização, a Comissão Europeia buscou incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária dos requisitos estabelecidos aos sistemas de IA, em qualquer grau de risco.

Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente, com a participação de usuários e demais partes interessadas, bem como das respectivas organizações representativas. Ainda, os códigos podem abranger um ou mais sistemas de IA, levando em consideração a semelhança da finalidade prevista desses sistemas.

Ao elaborar o Requerimento, a UE incentivou a aplicação voluntária aos sistemas de IA de requisitos relacionados, por exemplo, com sustentabilidade ambiental, acessibilidade das pessoas com deficiência, participação das partes interessadas na concepção e no desenvolvimento de sistemas, além da diversidade das equipes de desenvolvimento.

As três leis da robótica

A discussão sobre o uso da Inteligência Artificial, de modo ético e responsável, é antiga, datada da década de 1950, quando o escritor Isaac Asimov escreveu sobre as “três leis da robótica”, conteúdo que faz parte do livro “Eu, Robô”. Essas regras de Asimov, citadas abaixo, buscam proteger o ser humano, impondo limites à atuação do robô – ou do sistema de Inteligência Artificial.

  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;
  • 2ª Lei: Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que essas ordens entrem em conflito com a Primeira Lei;
  • 3ª Lei: Um robô deve proteger sua própria existência, desde que a proteção não entre em conflito com a Primeira e/ou a Segunda Lei.

Com a criação das Leis da Robótica, Asimov incluiu a chamada “Lei Zero”, segundo a qual um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal. Apesar de estarmos falando de ficção científica, os escritos de Isaac Asimov pautam, até os tempos atuais, as discussões acerca do uso da Inteligência Artificial, uma vez que o livro tratou de conflitos éticos decorrentes da interação entre homens e máquinas.

Para mais informações, nossas equipes permanecem à disposição.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp