Em defesa da oposição: Direito de oposição e Inteligência artificial
O direito à oposição é um momento de exercício de poder do titular frente ao tratamento de seus dados. Quando o assunto é treinamento em IA, ele é ainda mais relevante na medida em que a reversão do tratamento de dados para essa finalidade é difícil. Saiba mais sobre o tema em mais um eixo temático do projeto IA com Direitos - dedicado a desenvolver uma maior conscientização sobre a importância de uma regulação de Inteligência Artificial no Brasil centrada em cidadania e direitos.
Vários aspectos de nossas vidas têm perpassado por decisões tomadas por sistemas de IA. Seja o conteúdo recomendado em uma rede social, descobrir o restaurante mais próximo, a música que você escuta e até o seu interesse amoroso, uma coisa é certa: já estamos em um tempo no qual IA’s mediam grande parte de nossa relação com a realidade.
Com tamanha influência sobre todos nós, a ideia de um direito fundamental à oposição frente a tais sistemas nasce para equilibrar a balança. Mas o que seria esse direito e como ele vem sendo articulado em casos recentes?
O direito à oposição é um momento de exercício de poder do titular frente ao tratamento de seus dados. Com ele, é possível influir no tratamento dos próprios dados, calibrando as relações entre titulares e controladores. Contudo, o exercício desse direito está condicionado a interfaces que estejam abertas a essa manifestação do titular.
Tal cenário pode ficar ainda mais complicado quando pensamos no crescente uso de bases legais, como a execução de contratos e legítimo interesse, por grandes organizações como forma de autorizar tratamentos de dados sem a necessidade de consentimento do titular.
Embora tais bases legais não exijam uma autorização anterior ao tratamento, é necessário que o titular tenha algum poder de se opor, mesmo que posteriormente como forma de exercício de sua autodeterminação informativa. A Agência Nacional de Proteção de Dados já recomendou, por exemplo, o uso de mecanismos de oposição no caso do legítimo interesse como forma de calibração adequada das legítimas expectativas dos titulares.
Quando o assunto é IA generativa, vimos uma série de organizações mudarem seus termos de uso nos últimos anos, passando a prever o uso de dados pessoais para o treinamento de seus modelos com base no legítimo interesse, situação que acabou levando à aplicação de medida preventiva pela ANPD no Brasil.
Na ocasião, a ANPD destacou que a ausência de mecanismos de opt-out adequados em momento anterior ao início dos treinamentos dos modelos poderia limitar direitos dos titulares. A exigência de mecanismos de opt-out não é exclusiva da ANPD, o European Data Protection Board (EDPB) também já reforçou a recomendação do uso de tais mecanismos antes do início do treinamento de modelos de IA.
Entendemos que o direito de oposição previsto na LGPD é um elemento central no desenvolvimento de um ecossistema informacional justo na medida em que permite com que titulares tenham parte na maneira como a sua informação trafega e é usada. No entanto, o modelo da LGPD tem se mostrado falho e insuficiente.
Quando o assunto é treinamento em IA, o direito de oposição é ainda mais relevante na medida em que a reversão do tratamento de dados para essa finalidade é difícil.
Nesse sentido, acreditamos que tal direito também deve se estender a situações onde os dados de titulares são utilizados para criação e aprimoramento de modelos de IA generativa. A Data Privacy Brasil defende que é preciso a afirmação de um novo direito fundamental de oposição ao uso de dados pessoais para treinamento de sistemas de IA. Essa inclusive foi uma de nossas sugestões para a redação do art. 5º do PL 2338/23, que pode ser lida aqui.
Ainda há muito a se caminhar nesse assunto. A verdade é que, sem direito à oposição, tecnologias tão importantes como as IA’s podem não ser adequadamente apropriadas por todos. Caso você não saiba como exercer seu direito à oposição, confira o Manual do Titular produzido pela Data, que traz modelos abertos e facilitados do exercício de direitos.
Confira outros conteúdos do projeto IA com Direitos – dedicado a desenvolver uma maior conscientização sobre a importância de uma regulação de Inteligência Artificial no Brasil centrada em cidadania e direitos.
Veja também
-
Definição de grupos vulneráveis e direitos de participação nos instrumentos de avaliação de altos riscos
Nos últimos anos, a discussão sobre regulação de inteligência artificial (IA) no Brasil deixou de ser apenas técnica e passou a ser um debate sobre projeto de sociedade. Do PL 2.338/2023, uma pergunta se repete em textos, audiências e posicionamentos públicos: quem são as pessoas mais expostas aos riscos da IA e como participam das decisões que as afetam?
-
Direito fundamental à não manipulação abusiva que prejudique a autonomia em sistemas de IA
A Inteligência Artificial (IA) alcançou um novo patamar de influência sobre o comportamento humano. Se, no passado, preocupações com manipulação se restringiam à publicidade enganosa ou ao design persuasivo de plataformas, hoje lidamos com sistemas capazes de simular relações sociais, responder com empatia sintética e adaptar a conversa para atingir vulnerabilidades específicas de cada pessoa. Este é o tema de mais um eixo do projeto IA com Direitos.
-
Soberania, governança e interoperabilidade de dados no PL 2338/23
A contribuição da Data Privacy Brasil ao PL 2338/23 destaca a importância da governança e da interoperabilidade de dados como pilares para uma Inteligência Artificial orientada pelo interesse público. O texto propõe a criação de ecossistemas de dados comuns, padrões abertos e processos participativos que fortaleçam a soberania digital e a justiça de dados no país. Saiba mais neste artigo de mais um eixo temático do projeto IA com Direitos.
-
Inteligência Artificial, Sustentabilidade e Direito Coletivo de Acesso à Informação
Existem grandes questionamentos relacionados ao desenvolvimento e uso da IA, quando avaliados os impactos socioambientais que esta produz ao longo de todo o seu ciclo de vida. Essa discussão abre o primeiro eixo temático do projeto IA com Direitos - dedicado a desenvolver uma maior conscientização sobre a importância de uma regulação de Inteligência Artificial no Brasil centrada em cidadania e direitos.
Veja Também
-
Definição de grupos vulneráveis e direitos de participação nos instrumentos de avaliação de altos riscos
Nos últimos anos, a discussão sobre regulação de inteligência artificial (IA) no Brasil deixou de ser apenas técnica e passou a ser um debate sobre projeto de sociedade. Do PL 2.338/2023, uma pergunta se repete em textos, audiências e posicionamentos públicos: quem são as pessoas mais expostas aos riscos da IA e como participam das decisões que as afetam?
-
Soberania, governança e interoperabilidade de dados no PL 2338/23
A contribuição da Data Privacy Brasil ao PL 2338/23 destaca a importância da governança e da interoperabilidade de dados como pilares para uma Inteligência Artificial orientada pelo interesse público. O texto propõe a criação de ecossistemas de dados comuns, padrões abertos e processos participativos que fortaleçam a soberania digital e a justiça de dados no país. Saiba mais neste artigo de mais um eixo temático do projeto IA com Direitos.
-
Inteligência Artificial, Sustentabilidade e Direito Coletivo de Acesso à Informação
Existem grandes questionamentos relacionados ao desenvolvimento e uso da IA, quando avaliados os impactos socioambientais que esta produz ao longo de todo o seu ciclo de vida. Essa discussão abre o primeiro eixo temático do projeto IA com Direitos - dedicado a desenvolver uma maior conscientização sobre a importância de uma regulação de Inteligência Artificial no Brasil centrada em cidadania e direitos.
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0