Conselho da União Europeia publica novo texto de compromisso para o AI Act

UE AI Act

Contexto Legislativo

A Presidência do Conselho da União Europeia, representada até dezembro pela República Tcheca[1], publicou neste mês a nova versão para o Regulamento Geral da Inteligência Artificial da UE, também conhecido como Artificial Intelligence Act ou AI Act[2].

Apesar de ter sido descrita como “versão final do texto de compromisso”[3], a proposta do AI Act segue o complexo procedimento legislativo padrão da UE[4], marcado pela triangulação entre Comissão Europeia, Parlamento Europeu e Conselho da União Europeia. Além disso, várias comissões temáticas e delegações de Estados-Membros participam do processo. Nesse cenário, é possível que os debates e as deliberações sejam estendidos para o próximo ano e concluídos pela próxima Presidência da Conselho da UE.

O novo texto apresentado pela Presidência Tcheca trouxe poucas alterações substantivas, se comparado à versão anterior, publicada em 19 de outubro deste ano. A minuta esclarece e complementa alguns tópicos, conferindo uma possível visão final das obrigações a serem enfrentadas pelas empresas que usam ou fornecem sistemas de IA no mercado europeu.

Principais Mudanças da Nova Versão

Componentes de Segurança e Cibersegurança

Foram feitas alterações ao considerando 34 para esclarecer a distinção entre componentes de segurança e componentes utilizados exclusivamente para fins de cibersegurança. Além disso, os componentes de segurança que possam ensejar “riscos à integridade física, saúde e segurança de pessoas e bens”[5] integram a categoria de IA alto risco.[6]

Assistência Social, Serviços Públicos e Seguros

O considerando 37 foi alterado para esclarecer que o direito ao recebimento de benefícios de assistência social e serviços públicos também integra a categoria de alto risco. Adicionalmente, foram feitas alterações no Anexo III para a inclusão de serviços de seguros na lista de casos de alto risco. Especificamente no item “5(e)” do Anexo III, foi inserida uma modificação a fim de constar que apenas os seguros de vida e de saúde são abrangidos pelo alto risco, e não todo o pacote de seguros nos quais esses serviços estejam inseridos.

Grupos Vulneráveis e Transparência

Segundo as regras de transparência da proposta, os indivíduos devem ser informados que estão interagindo com sistemas de IA, a menos que isso seja óbvio “do ponto de vista de uma pessoa natural razoável que seja razoavelmente bem-informada, observadora e cautelosa”.[7]

Essa obrigação também se aplica ao processamento de dados biométricos por sistemas de IA, assim como àqueles que possam inferir emoções ou categorizar indivíduos, com exceção dos sistemas utilizados em investigações policiais.

Nesse sentido, o considerando 70 foi ajustado para constar que as características de grupos vulneráveis devem ser levadas em consideração no momento implementação de medidas de transparência, a fim de assegurar a não-discriminação.

Sistemas de IA de Uso Geral

Foram feitas alterações no artigo 4b(2) para esclarecer quando as obrigações da proposta começarão a valer para os fornecedores de “sistemas de IA de uso geral”. Esses sistemas podem ser adaptados para executar várias tarefas em uma pluralidade de contextos, incluindo funções como “reconhecimento de imagem e fala, geração de áudio e vídeo, detecção de padrões, resposta a perguntas, tradução e outros”[8]. Isso quer dizer que, muitas vezes, esses sistemas podem ter usos imprevistos, sem um objetivo claro, fixo e exclusivo.

Assim, sistemas de IA de uso geral que se qualifiquem como de alto risco devem cumprir os requisitos estabelecidos no regulamento a partir da data de aplicação dos atos de execução adotados pela Comissão, no prazo de até 18 meses após a entrada em vigor do regulamento.

Autoridades de Enforcement Legal

Foram introduzidas exceções para autoridades de enforcement legal, incluindo agentes policiais e autoridades de proteção civil. Uma das exceções autoriza as forças policiais a solicitarem à autoridade nacional competente o funcionamento de sistemas de alto risco que não tenham sido aprovados no procedimento de avaliação de conformidade.

A exceção se aplica em “situações de urgência devidamente justificadas por razões excepcionais de segurança pública ou em caso de ameaça concreta, substancial e iminente à vida ou à segurança física de pessoas naturais”.[9] Nessa linha, foi feita uma complementação no artigo 47(1a) para prever que, caso a autorização seja rejeitada pela autoridade nacional competente, o uso do sistema deverá ser interrompido e todos os resultados e saídas gerados a partir dessa utilização deverão ser descartados imediatamente.

Outras modificações, correções e ajustes menores foram feitas nos considerandos 61 e 76, bem como nos artigos 51 (2), 6(3), 71(4)(-a), 3 (28), 40(2)(a), 58(h) e 64(3).


[1] Disponível em: https://www.consilium.europa.eu/en/council-eu/presidency-council-eu/#:~:text=The%20tasks%20of%20the%20presidency,and%20cooperation%20among%20member%20states. Acesso em 09/11/2022.

[2] Disponível em: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence. Acesso em 07/11/2022.

[3] Disponível em: https://artificialintelligenceact.eu/wp-content/uploads/2022/11/AIA-CZ-Draft-for-Coreper-3-Nov-22.pdf. Acesso em 08/11/2022.

[4] Processo legislativo ordinário da UE.

[5] Id. Ibidem.

[6] De acordo com a proposta, são estabelecidas quatro categorias para atribuição de risco aos sistemas de IA: “inaceitável, alto risco, risco limitado e baixo risco”.

[7] Id. Ibidem.

[8] Id. Ibidem.

[9] Id. Ibidem.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand
© 2023 Todos os direitos reservados. | Build by Mamutt

+55 11 2189-0061
contato@opiceblum.com.br

Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand

Al. Joaquim Eugênio de Lima, 680,

1º andar, Jardim Paulista – São Paulo / SP

+55 11 2189-0061
contato@opiceblum.com.br

© 2023 Todos os direitos reservados.
| Site designed by FutureBrand
| Build by Mamutt