Proposta de Diretiva sobre Responsabilidade Civil da Inteligência Artificial na União Europeia

MicrosoftTeams-image - 2022-12-19T145722.008

O que é a “AI Liability Directive”?

Com a crescente expansão da tecnologia na sociedade, a questão da responsabilidade civil aplicável aos sistemas de Inteligência Artificial (IA) está cada vez mais presente. Ao mesmo tempo que as aplicações da AI contribuem para uma ampla gama de benefícios e auxiliam no progresso tecnológico, elas também podem gerar riscos e prejuízos aos seus usuários, a depender das circunstâncias de sua utilização.

Imagine-se, por exemplo, um acidente causado por um veículo autônomo, um dano à propriedade provocado por um drone de entregas ou uma falha em um sistema que atua em cirurgias e procedimentos de saúde. Nessas situações, haverá dever de indenizar as vítimas? Além disso, considerando a pluralidade de envolvidos e a superposição de responsabilidades, como identificar o responsável pela indenização em um caso concreto? Será responsável aquele que desenvolveu o algoritmo, o proprietário do banco de dados utilizado para testes, ou um operador que não realizou alguma atualização importante?

Para tratar dessa problemática e harmonizar as regras aplicáveis, a Comissão Europeia apresentou, em setembro, a proposta de Diretiva do Parlamento Europeu e do Conselho Europeu sobre responsabilidade civil da IA na União Europeia.

A iniciativa intitulada “AI Liability Directive” apresenta ferramentas que poderão auxiliar os usuários em processos judiciais, especialmente durante a produção de prova. Assim, a Diretiva tem como objetivo facilitar a comprovação de responsabilidade civil em situações nas quais as vítimas podem ter de identificar o responsável pelos danos ou demonstrar fatos e circunstâncias extremamente complexos, em cenários de assimetria técnica e informacional.

Contexto e escopo de aplicação da “AI Liability Directive

A Comissão Europeia anunciou duas propostas de Diretivas, que estão intimamente relacionadas, mas tratam de diferentes tipos de responsabilidade civil aplicável aos sistemas de IA. Quando consideradas em conjunto, essas Diretivas se complementam e têm como objetivo autodeclarado formar um sistema global de responsabilidade civil eficaz.

Uma delas consiste na “Product Liability Directive” (PLD)[1] que dispõe sobre a responsabilidade civil dos fabricantes por produtos defeituosos, incluindo aqueles que contenham Inteligência Artificial. Trata-se de uma revisão da Diretiva 85/374/EEC, com base na necessidade de atualizar suas regras devido à crescente complexidade técnica e científica da economia digital.

A AI Liability Directive[2], por sua vez, é uma Diretiva que complementa a Resolução 2020/2014 (INL) do Parlamento Europeu sobre o regime de responsabilidade civil aplicável à Inteligência Artificial[3].

Assim, essa Diretiva não revoga e não substitui iniciativas anteriores sobre IA na UE. Conforme descrito no próprio texto da proposta, a Diretiva está “em consonância com os objetivos do White Paper sobre IA de 2020” [4] e “dá seguimento à Resolução sobre responsabilidade civil de 2020”[5], passando a compor o cenário legislativo europeu sobre o tema.

A Diretiva surge da necessidade de “equipar” e harmonizar as regras sobre responsabilidade civil extracontratual da IA nas jurisdições da União Europeia. Assim, a proposta se aplica à apuração de danos em casos de responsabilidade civil extracontratual subjetiva[6]

O grande objetivo da “AI Liability Directive” consiste em assegurar os mesmos padrões de proteção às vítimas, que estariam garantidos em outras situações, como nos casos de responsabilidade por defeito do produto.  Isso porque, nos casos envolvendo a responsabilidade civil extracontratual, é necessário comprovar a culpa do réu com base na denominada “fault liability”[7], ou seja, é preciso demonstrar a negligência do réu em não aplicar as cautelas necessárias ao projetar, implantar ou monitorar sistemas de IA.

Nesses casos, a aplicação das regras sobre responsabilidade civil pode obstar os direitos das vítimas, além de trazer insegurança jurídica ao mercado de tecnologia. Por isso, a “AI Liability Directive” é relevante não apenas para usuários, mas sobretudo para as empresas que disponibilizam suas aplicações de IA na União Europeia. Conforme demonstra uma pesquisa de 2020 citada na proposta, a responsabilidade civil foi considerada uma das principais barreiras ao uso de IA por empresas europeias, reforçando a preocupação do mercado com o tema[8].

Logo, trata-se de um documento que integra um “pacote de medidas para apoiar a implementação da IA na Europa” e que compreende os seguintes trabalhos complementares: “(i) proposta legislativa para regras horizontais em matéria de inteligência artificial (AI Act); (ii) revisão das regras setoriais e horizontais sobre segurança de produtos e, (iii) regras da UE sobre responsabilidade relacionadas aos sistemas de IA”.

No que se refere especificamente ao “AI Act” (2021), o texto de apresentação da Diretiva afirma que esses dois documentos são “faces da mesma moeda: aplicam-se em momentos diferentes e reforçam-se mutuamente”. O “AI Act” estipula as definições importantes, incluindo a classificação de risco dos sistemas de IA, ao passo que a “AI Liability Directive” traz o ferramental necessário sobre responsabilidade. Além disso, a “AI Liability Directive” contribuiria para o cumprimento dos requisitos do “AI Act” em relação aos sistemas de alto risco, uma vez que o descumprimento destes requisitos desencadeia a desoneração do ônus da prova em favor da vítima.

Finalmente, é necessário destacar que a “AI Liability Directive” é resultado de um extenso trabalho da Comissão Europeia, conduzido desde 2020 através de uma consulta pública para a Avaliação de Impacto da proposta[9]. As impressões coletadas do público reforçam a preocupação com a opacidade, autonomia e complexidade dos sistemas de IA, bem como com a incerteza sobre a interpretação destas regras, pelos tribunais, no futuro.

Ferramentas jurídicas previstas na Diretiva para auxílio aos usuários vítimas de sistemas de IA em procedimentos judiciais

As novas regras pretendem estabelecer um equilíbrio entre a proteção dos consumidores e a promoção da inovação, removendo barreiras que atrapalham o procedimento de indenização a eventuais vítimas de sistemas de IA.

Geralmente, quando alguém busca uma reparação por danos sofridos, as regras tradicionais de responsabilidade exigem que essa pessoa comprove: (i) uma ação ou omissão intencional ou culposa por parte daquele potencialmente responsável pelo dano e (ii) o nexo de causalidade entre essa culpa e o dano relevante.

Ocorre que, quando uma IA estiver envolvida entre a ação ou omissão de uma pessoa e o dano, as características específicas desses sistemas de IA (opacidade, comportamento autônomo e complexidade) podem tornar impossível ou excessivamente difícil para a vítima arcar com o ônus da produção da prova. A Diretiva propõe simplificar o processo legal introduzindo duas ferramentas jurídicas: a presunção de causalidade e o direito de acesso às evidências.

  • Presunção de causalidade (presumption of causality)

A presunção de causalidade ocorrerá em situações nas quais uma falha relevante for identificada e seu nexo causal com o desempenho da IA parecer razoavelmente provável. São ocasiões em que as vítimas, em razão da assimetria técnica, experimentam dificuldades para explicar em detalhes como o dano foi causado, considerando a complexidade em entender e navegar em sistemas de IA.

Sua previsão se encontra no art. 4 da Diretiva e indica que “os tribunais nacionais devem presumir, para fins de aplicação das regras de responsabilidade em uma ação indenizatória, o nexo causal entre a culpa do Réu e o resultado produzido pelo sistema de IA”. Como requisitos para sua aplicação, exige-se:

  1. A demonstração do dano (ou a presunção de ocorrência do dano) e a indicação de culpa do Réu ou do sistema cujo comportamento o Réu é responsável;
  2. A demonstração da probabilidade, com base nas circunstâncias do caso, que a falha ou erro no sistema de IA produziu um resultado;
  3. Que o resultado tenha causado algum dano ou prejuízo.

Essa presunção, contudo, não será absoluta, e poderá ser questionada pelo Réu no momento de apresentação de sua defesa.

  • Direito de acesso às evidências (right of access to evidence)

O direito de acesso às evidências diz respeito ao acesso às informações sobre sistemas de IA de alto risco eventualmente suspeitos de terem causado danos.

A complexidade no desenvolvimento, implantação e operação de sistemas de IA pode tornar difícil para as vítimas identificarem o responsável pelos danos causados e formarem um conjunto de evidências para subsidiar um processo de indenização. O direito de acesso às evidências seria suficiente para solucionar essa problemática.

De acordo com o art. 3 da proposta, o acesso às evidências somente será possível em situações nas quais há fundada suspeita de que o dano seja decorrente de sistemas de IA e o demandante apresente fatos e informações suficientes para dar suporte à plausibilidade do pedido. Para a concessão do pedido via judicial, também será necessário que o requerente comprove que solicitou as informações anteriormente ao provedor do sistema de AI, e teve sua solicitação rejeitada.

Importante destacar que, para sistemas de IA de alto risco, a legislação de IA exige documentação específica, informações e requisitos de registro, mas não dá direito à pessoa lesada de ter acesso a essas informações. Assim, a Diretiva entende como apropriado designar regras sobre a divulgação de provas relevantes por aqueles que as têm à sua disposição, com o objetivo de atribuir a responsabilidade.

Com essas duas ferramentas jurídicas, a Diretiva espera superar as desconfianças sociais acerca da dificuldade em atribuir responsabilidade em processos de indenização que envolvam sistemas de IA.

Conclusão

A proposta de uma “AI Liability Directive” surge em um contexto de crescente preocupação das empresas e consumidores com os possíveis danos e responsabilizações decorrentes da IA. Assim, além de facilitar a materialização de direitos das vítimas, a iniciativa tem como objetivo aumentar o grau de previsibilidade sobre a aplicação das normas, possibilitando a avaliação da exposição jurídica das empresas atuantes neste mercado.

Dessa maneira, a Comissão Europeia busca complementar o panorama jurídico-regulatório atual da UE por meio das duas propostas anunciadas em conjunto: (i) a “Product Liability Directive” e a (ii) “AI Liability Directive”. Enquanto “Product Liability Directive” trata da responsabilidade de fabricantes por produtos defeituosos promovendo uma revisão da Diretiva 85/374/EEC, a “AI Liability Directive” apresenta um texto totalmente novo voltado à harmonização das regras sobre responsabilidade extracontratual subjetiva e à instrumentalização de direitos perante os tribunais.

Para atingir esses objetivos, a “AI Liability Directive” apresenta duas ferramentas jurídicas capazes de resolver a problemática enfrentada pelas vítimas durante o processo legal de indenização. Primeiro, em circunstâncias nas quais uma falha foi identificada e há um provável nexo causal com o desempenho de uma IA, a denominada presunção de causalidade tratará de superar as dificuldades enfrentadas pelas vítimas em comprovar tecnicamente como o dano foi causado, seja por ação ou por omissão. Em segundo lugar, as vítimas terão uma nova forma para fundamentar seu pedido de reparação legal, com a introdução do chamado direito de acesso às evidências de empresas e fornecedores, nos casos em que a IA de alto risco esteja envolvida.

Essas adaptações visam a manter a confiança no sistema jurídico, assegurando que as vítimas de danos causados por sistemas de IA tenham direito à compensação da mesma forma que as vítimas de danos causados por outras tecnologias.


[1] EUROPEAN COMISSION. Proposal for a directive of the European Parliament and of the Council on liability for defective products. Disponível em: https://single-market-economy.ec.europa.eu/document/3193da9a-cecb-44ad-9a9c-7b6b23220bcd_en. Acesso em: 17/10/2022.

[2] EUROPEAN COMISSION. Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence. Disponível em: https://ec.europa.eu/info/files/proposal-directive-adapting-non-contractual-civil-liability-rules-artificial-intelligence_en. Acesso em: 17/10/2022.

[3] JORNAL OFICIAL DA UNIÀO EUROPEIA. Regime de responsabilidade civil aplicável à inteligência artificial. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:52020IP0276&from=PL#:~:text=Os%20cidad%C3%A3os%20devem%20ter%20o,na%20nova%20tecnologia%20seja%20refor%C3%A7ada. Acesso em 17/10/2022.

[4] EUROPEAN COMISSION. Questions & Answers: AI Liability Directive. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/QANDA_22_5793. Acesso em 17/10/2022.

[5] Id. Ibidem.

[6] ADA LOVELACE INSTITUTE. AI liability in Europe: anticipating the EU AI Liability Directive. Disponível em: https://www.adalovelaceinstitute.org/resource/ai-liability-in-europe/. Acesso em 17.10.2022.

[7] Disponível em: https://www.adalovelaceinstitute.org/resource/ai-liability-in-europe/. Acesso em 17/10/2022.

[8] Ibidem.

[9] EUROPEAN COMISSION. Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence. Disponível em: https://ec.europa.eu/info/files/proposal-directive-adapting-non-contractual-civil-liability-rules-artificial-intelligence_en. Acesso em: 17/10/2022.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand
© 2023 Todos os direitos reservados. | Build by Mamutt

+55 11 2189-0061
contato@opiceblum.com.br

Cadastre-se em nossa newsletter

Quer receber nossa newsletter com notícias especializadas, cursos e eventos?
Registre seu e-mail.

*Para saber como tratamos seus dados pessoais, consulte nosso Aviso de Privacidade.

Al. Joaquim Eugênio de Lima, 680,
1º andar, Jardim Paulista – São Paulo / SP

© 2023 Todos os direitos reservados. | Site designed by FutureBrand

Al. Joaquim Eugênio de Lima, 680,

1º andar, Jardim Paulista – São Paulo / SP

+55 11 2189-0061
contato@opiceblum.com.br

© 2023 Todos os direitos reservados.
| Site designed by FutureBrand
| Build by Mamutt