Artigo | IA com Direitos | Plataformas e Mercados Digitais

2023, o ano em que o ChatGPT mostrou a IA generativa ao mundo

 2023, o ano em que o ChatGPT mostrou a IA generativa ao mundo

No início deste ano, o  ChatGPT se popularizou e mostrou ao mundo o que é a inteligência artificial (IA) generativa, tipo de tecnologia capaz de gerar textos, imagens e outros conteúdos em resposta a solicitações feitas em linguagem comum.

Embora tenha sido lançado no final de novembro do ano passado, foi em 2023 que o ChatGPT, da OpenAI, caiu na boca do povo. Aqui no Brasil, o sistema viu suas buscas crescerem no Google ao longo do mês de janeiro e, desde então, tem se mantido em alta.

“As pessoas agora sabem o que é inteligência artificial, e às vezes até consideram a IA como sendo o ChatGPT”, comenta Paula Guedes, doutoranda em Direito pela Universidade Católica do Porto, pesquisadora na Data Privacy Brasil, membro do Núcleo Legalite da PUC/RJ e ponto focal do grupo de trabalho sobre IA na Coalizão Direitos na Rede.

A popularidade do ChatGPT fez com que a concorrência corresse para lançar suas próprias IAs generativas, como é o caso do Bard, do Google , do Gauss, da Samsung , e do Amazon Q . Apesar dos lançamentos, o ChatGPT, que logo foi incorporado ao Bing, buscador da Microsoft, continua sendo o mais popular de todos, inclusive servindo de sinônimo para o próprio modelo de tecnologia em si – não raro, é possível ver usuários chamando o Bard de “ChatGPT do Google”, por exemplo.

Perigos da IA generativa

Logo que o ChatGPT e seus concorrentes se popularizaram, porém, seus problemas também ficaram conhecidos, como a disseminação de desinformação, vieses de descriminação, as chamadas “alucinações” e falhas em filtros de conteúdos.

“A inovação, o progresso e a facilidade são muito nítidos, mas, quando a gente vai para os desafios, é um emaranhado de coisas, é como se fosse uma cebola em camadas”, comenta Cynthia Picolo, diretora do Laboratório de Políticas Públicas e Internet (LAPIN) e ponto focal do grupo de trabalho sobre IA na Coalizão Direitos na Rede.

O primeiro e mais notado problema das IAs generativas é o fato de que nem sempre elas trazem informações verdadeiras. Mesmo sem ancoragem nos fatos, porém, esses sistemas geram respostas muito bem argumentadas e convincentes – são as chamadas “alucinações”. Isso faz com que as pessoas acreditem naquelas informações mesmo que elas sejam falsas, gerando disseminação de desinformação e desordem informacional.

“A facilidade das respostas que parecem ser muito boas mina o senso crítico das pessoas, que estão perdendo um pouco a habilidade de raciocinar e de pesquisar, porque a resposta vem muito pronta”, analisa Cynthia, que demonstra preocupação nesse aspecto para o próximo ano, quando acontecem eleições municipais e os efeitos da desinformação podem se tornar ainda mais graves.

Para além desse problema, os sistemas de IA generativa também comumente reproduzem preconceitos presentes nos bancos de dados que os alimentam, gerando respostas machistas e racistas, por exemplo.

Nesse caso, o problema vai além das respostas em texto a atingem também os sistemas geradores de imagens. Neste ano, quando virou tendência nas redes sociais criar desenhos de personagens da Pixar usando o gerador de imagens do Bing, da Microsoft, sistema equipado com a tecnologia DALL-E3, da OpenAI, os preconceitos algorítmicos se tornaram evidentes.

Um exemplo aconteceu no Rio de Janeiro em outubro, quando a  deputada estadual Renata Souza (PSOL) pediu que a IA gerasse uma imagem de uma mulher negra em uma favela, e o sistema criou um desenho de uma mulher segurando uma arma.

Os geradores de imagens também trazem problemas adicionais, como a possibilidade de se criar “nudes” falsos, como aconteceu neste ano em escolas no Rio de Janeiro e em Recife.

Além disso, existem casos em que IAs generativas não conseguem filtrar quando uma solicitação ou pergunta é maliciosa, e acabam oferecendo instruções a usuários que questionam informações perigosas, como tutoriais para a criação de bombas caseiras, por exemplo.

Corrida por lucro e falta de regulação

Esses problemas são potencializados por lançamentos feitos às pressas por empresas de tecnologia. Com o sucesso das IA generativas, as companhias correram para lançar suas próprias soluções, colocando no mercado sistemas que ainda apresentam falhas.

“Foi o momento de tirar os projetos da gaveta e realmente colocar no mercado para focar na competitividade. Tem essa jogada de mercado por trás e as empresas estão querendo manter o espaço”, comenta Cynthia.

Paula afirma que esses lançamentos rápidos são “muito problemáticos”, já que, como não há regulação sobre esses sistemas, eles são lançados sem as testagens suficientes. No geral, as empresas lançam as IAs generativas alertando que elas estão em fase de testes e que, portanto, podem apresentar falhas. Quando o Bard foi lançado, por exemplo, o próprio Google admitiu que as “alucinações” poderiam acontecer, gerando desinformação.

“Mas não tira sua culpa você estar falando que tem esse e aquele problema, porque teoricamente você deveria ter resolvido as falhas antes de disponibilizar o sistema para o público”, pontua Paula.

A falta de regulamentação citada por Paula deixa um caminho livre para que empresas de tecnologia lancem IAs problemáticas no mercado brasileiro, sem sofrer qualquer consequência. Atualmente, algumas regras de outras leis e normas – como o Marco Civil da Internet, a Lei Geral de Proteção de Dados Pessoais (LGPD), o Código de Defesa do Consumidor (CDC) e o próprio Código Civil – podem ser aplicadas também ao mercado da inteligência artificial, mas não há uma lei específica sobre o tema.

“A IA é muito complexa. Como ela impacta todos os setores da sociedade, é preciso uma lei que, de fato, esteja do começo ao fim lidando com inteligência artificial”, defende Cynthia.

No Brasil, o debate mais avançado sobre o tema encontra-se no Senado.  O Projeto de Lei (PL) 2338/2023 foi proposto pelo presidente da Casa, o senador Rodrigo Pacheco (PSD-MG), depois de compilar propostas que já tramitavam no Congresso com o relatório de uma comissão de juristas entregue no ano passado. O texto deve ser uma das prioridades de 2024.

Cynthia e Paula, que atuam diretamente nas movimentações da sociedade civil em busca de uma legislação sobre o tema, afirmam que o texto está bastante robusto, mas é necessário avançar.

Isso porque quando a comissão de juristas propôs ideias, o ChatGPT e as demais IAs generativas ainda não tinham se popularizado, então muitas questões relacionadas a esse setor da inteligência artificial não estão reguladas pela lei.

Mundo afora, um dos principais exemplos de legislação sobre o tema é o AI Act, da União Europeia, que obriga os sistemas de IA a serem seguros, transparentes, rastreáveis, não discriminatórios, ecológicos e supervisionados por pessoas, não por automação.

A lei também define regras diferentes para sistemas com riscos potenciais diferentes. No caso das IAs generativas, existe a exigência de que as empresas divulguem que o conteúdo foi gerado por uma inteligência artificial, projetem os sistemas para evitar a geração de conteúdo ilegal e protejam direitos autorais. Além disso, essas IAs devem ser submetidas a “avaliações exaustivas”, e quaisquer incidentes graves devem ser reportados à Comissão Europeia.

Na visão das pesquisadoras, ainda há muito o que se discutir sobre a regulação da IA no Brasil, mas não há mais espaço para discussões sobre a importância, ou não, de uma regulação para a inteligência artificial. “Ainda existe muito o argumento de que a regulação vai impedir a inovação, o que é uma falácia total. Dá para inovar com produtos responsáveis, que sejam protetivos de direitos. Não adianta nada lançar vários produtos que vão causar mais danos do que benefícios”, afirma Paula.

Texto publicado originalmente no dia 29.12.2023 no site IG e escrito por Dimítria Coutinho.