Contexto Legislativo
A Presidência do Conselho da União Europeia, representada até dezembro pela República Tcheca[1], publicou neste mês a nova versão para o Regulamento Geral da Inteligência Artificial da UE, também conhecido como Artificial Intelligence Act ou AI Act[2].
Apesar de ter sido descrita como “versão final do texto de compromisso”[3], a proposta do AI Act segue o complexo procedimento legislativo padrão da UE[4], marcado pela triangulação entre Comissão Europeia, Parlamento Europeu e Conselho da União Europeia. Além disso, várias comissões temáticas e delegações de Estados-Membros participam do processo. Nesse cenário, é possível que os debates e as deliberações sejam estendidos para o próximo ano e concluídos pela próxima Presidência da Conselho da UE.
O novo texto apresentado pela Presidência Tcheca trouxe poucas alterações substantivas, se comparado à versão anterior, publicada em 19 de outubro deste ano. A minuta esclarece e complementa alguns tópicos, conferindo uma possível visão final das obrigações a serem enfrentadas pelas empresas que usam ou fornecem sistemas de IA no mercado europeu.
Principais Mudanças da Nova Versão
Componentes de Segurança e Cibersegurança
Foram feitas alterações ao considerando 34 para esclarecer a distinção entre componentes de segurança e componentes utilizados exclusivamente para fins de cibersegurança. Além disso, os componentes de segurança que possam ensejar “riscos à integridade física, saúde e segurança de pessoas e bens”[5] integram a categoria de IA alto risco.[6]
Assistência Social, Serviços Públicos e Seguros
O considerando 37 foi alterado para esclarecer que o direito ao recebimento de benefícios de assistência social e serviços públicos também integra a categoria de alto risco. Adicionalmente, foram feitas alterações no Anexo III para a inclusão de serviços de seguros na lista de casos de alto risco. Especificamente no item “5(e)” do Anexo III, foi inserida uma modificação a fim de constar que apenas os seguros de vida e de saúde são abrangidos pelo alto risco, e não todo o pacote de seguros nos quais esses serviços estejam inseridos.
Grupos Vulneráveis e Transparência
Segundo as regras de transparência da proposta, os indivíduos devem ser informados que estão interagindo com sistemas de IA, a menos que isso seja óbvio “do ponto de vista de uma pessoa natural razoável que seja razoavelmente bem-informada, observadora e cautelosa”.[7]
Essa obrigação também se aplica ao processamento de dados biométricos por sistemas de IA, assim como àqueles que possam inferir emoções ou categorizar indivíduos, com exceção dos sistemas utilizados em investigações policiais.
Nesse sentido, o considerando 70 foi ajustado para constar que as características de grupos vulneráveis devem ser levadas em consideração no momento implementação de medidas de transparência, a fim de assegurar a não-discriminação.
Sistemas de IA de Uso Geral
Foram feitas alterações no artigo 4b(2) para esclarecer quando as obrigações da proposta começarão a valer para os fornecedores de “sistemas de IA de uso geral”. Esses sistemas podem ser adaptados para executar várias tarefas em uma pluralidade de contextos, incluindo funções como “reconhecimento de imagem e fala, geração de áudio e vídeo, detecção de padrões, resposta a perguntas, tradução e outros”[8]. Isso quer dizer que, muitas vezes, esses sistemas podem ter usos imprevistos, sem um objetivo claro, fixo e exclusivo.
Assim, sistemas de IA de uso geral que se qualifiquem como de alto risco devem cumprir os requisitos estabelecidos no regulamento a partir da data de aplicação dos atos de execução adotados pela Comissão, no prazo de até 18 meses após a entrada em vigor do regulamento.
Autoridades de Enforcement Legal
Foram introduzidas exceções para autoridades de enforcement legal, incluindo agentes policiais e autoridades de proteção civil. Uma das exceções autoriza as forças policiais a solicitarem à autoridade nacional competente o funcionamento de sistemas de alto risco que não tenham sido aprovados no procedimento de avaliação de conformidade.
A exceção se aplica em “situações de urgência devidamente justificadas por razões excepcionais de segurança pública ou em caso de ameaça concreta, substancial e iminente à vida ou à segurança física de pessoas naturais”.[9] Nessa linha, foi feita uma complementação no artigo 47(1a) para prever que, caso a autorização seja rejeitada pela autoridade nacional competente, o uso do sistema deverá ser interrompido e todos os resultados e saídas gerados a partir dessa utilização deverão ser descartados imediatamente.
Outras modificações, correções e ajustes menores foram feitas nos considerandos 61 e 76, bem como nos artigos 51 (2), 6(3), 71(4)(-a), 3 (28), 40(2)(a), 58(h) e 64(3).
[1] Disponível em: https://www.consilium.europa.eu/en/council-eu/presidency-council-eu/#:~:text=The%20tasks%20of%20the%20presidency,and%20cooperation%20among%20member%20states. Acesso em 09/11/2022.
[2] Disponível em: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence. Acesso em 07/11/2022.
[3] Disponível em: https://artificialintelligenceact.eu/wp-content/uploads/2022/11/AIA-CZ-Draft-for-Coreper-3-Nov-22.pdf. Acesso em 08/11/2022.
[4] Processo legislativo ordinário da UE.
[5] Id. Ibidem.
[6] De acordo com a proposta, são estabelecidas quatro categorias para atribuição de risco aos sistemas de IA: “inaceitável, alto risco, risco limitado e baixo risco”.
[7] Id. Ibidem.
[8] Id. Ibidem.
[9] Id. Ibidem.