OCDE publica framework para classificar sistemas de Inteligência Artificial

report_carrosel_Notícia 2 cópia 2

FRAMEWORK DA OCDE PARA INTELIGÊNCIA ARTIFICIAL | Os sistemas de Inteligência Artificial têm integrado cada vez mais os setores da sociedade, trazendo muitos benefícios, mas também riscos. Ao comparar assistentes virtuais, veículos autônomos e algoritmos, é possível notar que as especificidades de cada tecnologia exigirão diferentes abordagens para a formulação de políticas de governança a serem adotadas pelas empresas.

Para ajudar na elaboração dessas políticas, bem como no trabalho dos legisladores em torno da regulação dos sistemas de IA, a OCDE (Organização para a Cooperação e Desenvolvimento Econômico) desenvolveu framework que permite fazer análise em riscos específicos para esse tipo de tecnologia, como vieses, explicabilidade e robustez.

De acordo com o framework, um sistema de IA deve ter as seguintes dimensões:

  • PESSOAS E PLANETA: dimensão que considera o potencial para beneficiar os seres humanos e o planeta, com destaque para os impactos em direitos humanos, meio ambiente, bem-estar, sociedade e mercado de trabalho;
  • ECONOMIA: dimensão que considera o setor no qual a tecnologia será implementada, sua função, o modelo de negócio correspondente, seus riscos, impactos, além da maturidade tecnológica da solução;
  • DADOS E INPUTS: dimensão que especifica os métodos de coleta de dados por máquinas ou seres humanos, estrutura, formato e propriedade dessas informações;
  • TAREFAS E OUTPUTS: dimensão que consiste nas tarefas que o sistema executa, como personalização, reconhecimento ou previsibilidade; e
  • MODELO DE IA: dimensão que considera o método de criação de um sistema de IA (sua forma de construção) e para quais objetivos ele foi criado.

O framework da OCDE propõe abordagem da tecnologia de IA baseada em risco para regular os sistemas de Inteligência Artificial, a fim de focar a supervisão e a intervenção onde é mais prioritário, evitando obstáculos desnecessários à inovação. São três os critérios típicos para determinar o risco de um aplicativo ou sistema de IA:

(i) escala, ou seja, gravidade dos impactos adversos (e probabilidade);

(ii) escopo, ou seja, amplitude de aplicação, como número de indivíduos que são ou serão afetados; e

(iii) possibilidade de aderir, ou seja, grau de escolha quanto a estar sujeito aos efeitos de um sistema de IA.

Leia aqui nosso report na íntegra.

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp