Depois das sempre atuais discussões sobre governança e BYOD (Bring Your Own Device), BYOC (Bring Your Own Cloud) e BYOA (Bring Your Own App), agora as empresas precisam incorporar em suas políticas internas o BYOAI (Bring Your Own Artificial Intelligence), especialmente diante do intenso uso do ChatGPT por seus colaboradores, mesmo sem autorização ou governança corporativa.
Não se trata de vedar a inovação, mas de entender os riscos da tecnologia como forma de aplicá-la de forma sustentável e com maior segurança (jurídica e da informação), possibilitando a tomada de decisão informada e responsável.
A IA do ChatGPT é conhecida como Reinforcement Learning from Human Feedback (RLHF), que usa feedbacks dos usuários para fornecer respostas cada vez mais rápidas, precisas e inteligentes.
Ou seja, a OpenAI utiliza os prompts dos usuários como forma de melhorar o desempenho do seu modelo nos casos de non-API consumer products like ChatGPT and DALL-E:
“For non-API consumer products like ChatGPT and DALL-E we may use content such as prompts, responses, uploaded images, and generated images to improve our services” (para ler, clique aqui).
Portanto, na prática, é possível haver “vazamentos” de segredos empresariais de forma não intencional por colaboradores que até querem ajudar a empresa, mas acabam inserindo nos prompts informações estratégicas, como nos seguintes casos concretos, por colaboradores:
- Funcionário que “colou” o código-fonte confidencial no ChatGPT para verificar se havia erros;
- Compartilhamento do código-fonte com o ChatGPT para solicitar a sua otimização; e
- Compartilhamento de gravação de reunião para converter em notas para uma apresentação.
Porém, para uso via API do ChatGPT, desde 1º de março de 2023, a OpenAI não utiliza mais dados enviados pelos clientes para treinar ou melhorar seus modelos, a menos que você decida explicitamente compartilhar com eles suas informações para esse fim.
Os dados enviados por meio da API somente serão retidos para fins de monitoramento de abuso e uso indevido por no máximo 30 dias, após os quais serão excluídos (a menos que exigido por lei o contrário). Aqui, vale novamente a ressalva:
“Note that this data policy does not apply to OpenAI’s Non-API consumer services like ChatGPT or DALL·E Labs” (para ler, clique aqui).
Outra possibilidade é a utilização do Azure OpenAI, da Microsoft, no qual os dados de treinamento fornecidos também são usados apenas para ajustar o modelo do cliente, e não pela Microsoft para treinar ou melhorar quaisquer modelos da próprios da empresa.
Portanto, para preservar segredos de negócio, propriedade imaterial e informações e dados sigilosos de terceiros, torna-se imprescindível que as empresas estabeleçam políticas e governança de uso do ChatGPT, incluindo a conscientização e riscos.
Se a IA generativa passa a ser fundamental para a competitividade e a perenidade das organizações, eficácia e qualidade precisam caminhar ao lado de gestão, prestação de contas e responsabilidade corporativa.
A premissa é uma sólida estrutura de governança, ou seja, um conjunto de mecanismos – políticas, processos, responsabilidades específicas e cultura – apto a identificar e mitigar os riscos no desenvolvimento, aquisição ou implementação de sistemas de IA.
*Texto de autoria de Rony Vainzof, sócio do Opice Blum, Bruno e Vainzof Advogados Associados.