FRAMEWORK DA OCDE PARA INTELIGÊNCIA ARTIFICIAL | Os sistemas de Inteligência Artificial têm integrado cada vez mais os setores da sociedade, trazendo muitos benefícios, mas também riscos. Ao comparar assistentes virtuais, veículos autônomos e algoritmos, é possível notar que as especificidades de cada tecnologia exigirão diferentes abordagens para a formulação de políticas de governança a serem adotadas pelas empresas.
Para ajudar na elaboração dessas políticas, bem como no trabalho dos legisladores em torno da regulação dos sistemas de IA, a OCDE (Organização para a Cooperação e Desenvolvimento Econômico) desenvolveu framework que permite fazer análise em riscos específicos para esse tipo de tecnologia, como vieses, explicabilidade e robustez.
De acordo com o framework, um sistema de IA deve ter as seguintes dimensões:
- PESSOAS E PLANETA: dimensão que considera o potencial para beneficiar os seres humanos e o planeta, com destaque para os impactos em direitos humanos, meio ambiente, bem-estar, sociedade e mercado de trabalho;
- ECONOMIA: dimensão que considera o setor no qual a tecnologia será implementada, sua função, o modelo de negócio correspondente, seus riscos, impactos, além da maturidade tecnológica da solução;
- DADOS E INPUTS: dimensão que especifica os métodos de coleta de dados por máquinas ou seres humanos, estrutura, formato e propriedade dessas informações;
- TAREFAS E OUTPUTS: dimensão que consiste nas tarefas que o sistema executa, como personalização, reconhecimento ou previsibilidade; e
- MODELO DE IA: dimensão que considera o método de criação de um sistema de IA (sua forma de construção) e para quais objetivos ele foi criado.
O framework da OCDE propõe abordagem da tecnologia de IA baseada em risco para regular os sistemas de Inteligência Artificial, a fim de focar a supervisão e a intervenção onde é mais prioritário, evitando obstáculos desnecessários à inovação. São três os critérios típicos para determinar o risco de um aplicativo ou sistema de IA:
(i) escala, ou seja, gravidade dos impactos adversos (e probabilidade);
(ii) escopo, ou seja, amplitude de aplicação, como número de indivíduos que são ou serão afetados; e
(iii) possibilidade de aderir, ou seja, grau de escolha quanto a estar sujeito aos efeitos de um sistema de IA.
Leia aqui nosso report na íntegra.