Caso Grok: quando imagens sintéticas produzem danos reais
Nas últimas semanas, o chatbot Grok (da xAI), que integra o mesmo grupo da rede social X (ex-Twitter), está no centro de uma controvérsia que envolve a geração de imagens sexualizadas sem consentimento. Saiba mais sobre o caso.
Nas últimas semanas, o chatbot Grok (da xAI), que integra o mesmo grupo da rede social X (ex-Twitter), está no centro de uma controvérsia que envolve a geração de imagens sexualizadas sem consentimento.
Essas imagens são criadas em questão de segundos, apresentam aparência fotorrealista e podem ser geradas tanto do zero quanto a partir de fotografias reais. O episódio reacende uma discussão fundamental: quando tecnologias desse tipo são disponibilizadas sem salvaguardas eficazes, os riscos deixam de ser abstratos e passam a produzir danos concretos.
Quem são as principais pessoas afetadas
Esse tipo de prática não impacta todas as pessoas da mesma forma. Evidências recentes indicam que mulheres, crianças e adolescentes são desproporcionalmente afetados. Uma análise conduzida pela ONG AI Forensics, que avaliou mais de 20 mil imagens geradas recentemente pelo Grok, identificou que mais da metade delas retratava pessoas com pouca roupa, sendo 81% mulheres.
A tecnologia acaba por não criar um problema novo, mas sim reproduzir e ampliar no ambiente digital violências que já são estruturais e históricas. Além das imagens de conotação sensual ou sexual, também se observa a geração recorrente de deepfakes e conteúdos de desinformação envolvendo pessoas públicas, como políticos e celebridades.
Em determinados períodos, a ferramenta chegou a produzir até 85 vezes mais imagens sexualizadas por hora, alcançando cerca de 6.700 publicações por hora, o que demonstra a escala e a velocidade com que esse tipo de conteúdo pode se espalhar. Esses dados, compilados pela consultoria Genevieve Oh, ajudam a compreender por que os impactos são tão difíceis de conter uma vez que o sistema já está em operação.
Falhas por design e ausência de salvaguardas
No início do ano, o próprio Grok reconheceu que falhas em seus mecanismos de proteção levaram à geração de imagens sexualizadas envolvendo crianças e adolescentes, que acabaram sendo publicadas na plataforma X. O episódio evidencia problemas de classificação de risco e a ausência de barreiras estruturais robustas, orientadas pela prevenção de danos desde o design do sistema.
Após a primeira onda de críticas, a plataforma limitou o uso do Grok a usuários pagantes. A medida foi interpretada por especialistas como uma forma de monetizar um ambiente já marcado por abusos, sem enfrentar o problema central: a insuficiência de salvaguardas técnicas e organizacionais para impedir violações de direitos.
Repercussão internacional e respostas institucionais
A repercussão do caso ultrapassou fronteiras rapidamente.
Países do Sudeste Asiático, como Indonésia e Malásia, bloquearam o acesso ao Grok e passaram a mover ações judiciais contra a X, alegando falhas na prevenção de conteúdo nocivo e na proteção de usuários.
No Reino Unido, o governo anunciou a aceleração de uma lei que criminaliza deepfakes de natureza sexual. Austrália e Índia abriram investigações formais e emitiram alertas públicos. Nos Estados Unidos, parlamentares e organizações da sociedade civil pressionaram lojas de aplicativos a removerem o X e o Grok de suas bibliotecas.
No Brasil, o Instituto de Defesa do Consumidor (Idec) protocolou uma denúncia junto à Agência Nacional de Proteção de Dados (ANPD), solicitando a suspensão do Grok no país, com base em possíveis violações de direitos e falhas na proteção de dados pessoais.
O posicionamento da plataforma
Diante das críticas, Elon Musk, proprietário do X e do Grok, afirmou desconhecer a existência de imagens de nudez envolvendo menores geradas pelas plataformas e reiterou que os sistemas estariam programados para recusar solicitações ilegais, em conformidade com a legislação local.
No dia 14 de janeiro, a empresa anunciou a implementação de novas medidas tecnológicas para impedir que o Grok permita a edição de imagens de pessoas reais com roupas consideradas reveladoras, como biquínis ou roupas íntimas.
O cenário jurídico brasileiro
No Brasil, legislações como o Estatuto da Criança e do Adolescente Digital – ECA Digital (que caminha para sua entrada em vigor), a Lei Geral de Proteção de Dados – LGPD e o Código de Defesa do Consumidor – CDC dispõem de mecanismos legais contra tais práticas.
Além disso, o PL 2338/23, conhecido como Marco Legal da Inteligência Artificial, incorpora princípios como o dever de prevenir danos, a realização de avaliações de risco antes da disponibilização de sistemas e a responsabilização por usos previsíveis e abusivos da tecnologia. Casos como este ajudam a ilustrar por que esses dispositivos são centrais no debate regulatório.
O que vítimas de deepfakes e deepnudes podem fazer:
- Preservar provas, salvando as URLs, capturas de tela e registros de data e contexto da publicação.
- Denunciar o conteúdo diretamente nas plataformas em que ele circula, utilizando os canais de reporte por violação de direitos.
- Registrar ocorrência, especialmente em casos envolvendo ameaça, extorsão, violência sexual ou menores de idade.
- Buscar apoio jurídico e psicológico, já que os impactos são não apenas legais, mas também emocionais e sociais.
- Acionar autoridades competentes, como o Ministério Público, delegacias especializadas e, quando cabível, a ANPD.
A prevenção também passa por educação digital, pressão por melhores políticas de plataforma e fortalecimento de mecanismos de responsabilização.
Por uma IA com direitos
O episódio reforça uma constatação fundamental: a inovação tecnológica não pode se sobrepor à dignidade humana e aos direitos fundamentais. Quando riscos conhecidos são ignorados, o resultado não é progresso, mas dano real e retrocesso social.
Por meio da campanha IA com Direitos trabalhamos para que a Inteligência Artificial seja regulada de maneira justa e inclusiva, promovendo uma sociedade mais equitativa e informada.
Acesse dataprivacybr.org/projeto/ia-com-direitos para conhecer nossas produções sobre o tema e faça parte desta luta.
Veja também
-
Dados ecossistemas e Infraestruturas: A 1ª Edição da Escola de Governança de Dados
Entre 10 e 14 de novembro de 2025, a Data Privacy Brasil com apoio do CEDIS-IDP fez a primeira edição da Escola de Governança de Dados no IDP, em Brasília. Com apoio do CEDIS-IDP o curso promoveu um espaço de discussão qualificada dessa forma de enxergar dados e infraestrutura de maneira integrada a partir da governança de dados. Vem ver o que rolou no curso!
-
COP30, dados e uso da terra: conversando sobre agendas de combate à grilagem
No dia 12 de novembro de 2025, a Data Privacy Brasil realizou uma roda de conversa sobre dados e grilagem de terras, como parte da programação da COP do Povo, evento paralelo à COP30. Intitulada “COP30, dados e uso da terra: conversando sobre agendas de combate à grilagem”. Confira nosso relato!
-
Em memória de Danilo Doneda
Hoje, quatro de dezembro, completam-se três anos sem Danilo Doneda, um dos pioneiros e condutores do campo da proteção de dados pessoais no Brasil. A presença dele na Data Privacy Brasil segue sendo marcante e inspiradora.
-
Nota pública sobre o PL 5582/2025 (PL Antifacção)
A Data Privacy Brasil vem a público externar sua preocupação com as propostas voltadas para tratamento de dados pessoais e criação do Banco Nacional de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias Privadas e dos Bancos Estaduais de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias privadas.
-
Nota pública sobre Sistema Nacional de Regulação e Governança de Inteligência Artificial
A Data Privacy Brasil vem a público reforçar a necessidade de uma legislação de Inteligência Artificial que preveja um sistema robusto de aplicação de normas, tal como proposto com o Sistema Nacional de Regulação e Governança de Inteligência Artificial, batizado de “SIA” no Projeto de Lei 2338/2023, em discussão na Câmara dos Deputados.
-
Caso Córtex: o Combate ao Megazord da Vigilância
O sistema Córtex, regulamentado em 2021, é uma grande plataforma de vigilância criada pelo governo federal, capaz de unificar e cruzar informações de mais de 160 bases de dados, públicas e sigilosas, sobre pessoas, veículos e empresas. Seu propósito é definir alvos para cercamento eletrônico e monitoramento persistente. O acesso é capilarizado, alcançando Polícias Militares, Civis e até Guardas Civis Metropolitanas. Conforme detalhamos em nossa análise “Por que precisamos rever o uso do Córtex no Brasil?”, publicada em dezembro de 2024, a decisão de revisão do programa Córtex não surgiu como uma iniciativa espontânea, mas sim como uma reação a pressões feitas pela sociedade civil nos últimos quatro anos.
-
Caminhos para a regulação de IA no Brasil
Nos últimos meses, a Data Privacy Brasil reuniu seu time de pesquisa para refletir sobre mudanças possíveis no texto do Projeto de Lei 2338/23, que define princípios, direitos e regras de governança para sistemas de Inteligência Artificial (IA) no Brasil.
Veja Também
-
Dados ecossistemas e Infraestruturas: A 1ª Edição da Escola de Governança de Dados
Entre 10 e 14 de novembro de 2025, a Data Privacy Brasil com apoio do CEDIS-IDP fez a primeira edição da Escola de Governança de Dados no IDP, em Brasília. Com apoio do CEDIS-IDP o curso promoveu um espaço de discussão qualificada dessa forma de enxergar dados e infraestrutura de maneira integrada a partir da governança de dados. Vem ver o que rolou no curso!
-
Em memória de Danilo Doneda
Hoje, quatro de dezembro, completam-se três anos sem Danilo Doneda, um dos pioneiros e condutores do campo da proteção de dados pessoais no Brasil. A presença dele na Data Privacy Brasil segue sendo marcante e inspiradora.
-
Nota pública sobre o PL 5582/2025 (PL Antifacção)
A Data Privacy Brasil vem a público externar sua preocupação com as propostas voltadas para tratamento de dados pessoais e criação do Banco Nacional de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias Privadas e dos Bancos Estaduais de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias privadas.
-
Nota pública sobre Sistema Nacional de Regulação e Governança de Inteligência Artificial
A Data Privacy Brasil vem a público reforçar a necessidade de uma legislação de Inteligência Artificial que preveja um sistema robusto de aplicação de normas, tal como proposto com o Sistema Nacional de Regulação e Governança de Inteligência Artificial, batizado de “SIA” no Projeto de Lei 2338/2023, em discussão na Câmara dos Deputados.
-
Caso Córtex: o Combate ao Megazord da Vigilância
O sistema Córtex, regulamentado em 2021, é uma grande plataforma de vigilância criada pelo governo federal, capaz de unificar e cruzar informações de mais de 160 bases de dados, públicas e sigilosas, sobre pessoas, veículos e empresas. Seu propósito é definir alvos para cercamento eletrônico e monitoramento persistente. O acesso é capilarizado, alcançando Polícias Militares, Civis e até Guardas Civis Metropolitanas. Conforme detalhamos em nossa análise “Por que precisamos rever o uso do Córtex no Brasil?”, publicada em dezembro de 2024, a decisão de revisão do programa Córtex não surgiu como uma iniciativa espontânea, mas sim como uma reação a pressões feitas pela sociedade civil nos últimos quatro anos.
-
Caminhos para a regulação de IA no Brasil
Nos últimos meses, a Data Privacy Brasil reuniu seu time de pesquisa para refletir sobre mudanças possíveis no texto do Projeto de Lei 2338/23, que define princípios, direitos e regras de governança para sistemas de Inteligência Artificial (IA) no Brasil.
-
Proteção de dados e transparência pública em prol de políticas ambientais
Decisão da 9ª Vara Federal Ambiental e Agrária da Justiça Federal do Pará garante abertura de dados da Guia de Trânsito Animal no estado.
-
Governança da IA de baixo para cima
Nos dias 25 e 26/09/25, participamos do evento “Workers Governing Technologies Workshop”, promovido pelo grupo de pesquisa Creative Labour and Creative Futures na Universidade de Toronto no Canadá.
-
A transformação da ANPD: de Autoridade à Agência Nacional de Proteção de Dados
A ANPD encontra-se em um momento decisivo de consolidação institucional, marcado por mudanças normativas e estruturais que reforçam sua posição como órgão regulador central no ecossistema de proteção de dados brasileiro.
-
Já é Carnaval, meu amor, proteja-se!
O Carnaval do Brasil é mundialmente conhecido, seja pela tradição do samba na avenida ou pela imensidão dos blocos de rua. Na euforia dos blocos, muitas vezes encontramos um problema crítico: danos causados a pessoas que tiveram celulares furtados ou roubados, com invasões de contas, redes sociais e aplicativos de mensageria. Confira as dicas para você curtir com segurança!
-
O que está por trás do CPF nas farmácias?
4 conteúdos para você se aprofundar na relação entre dados e farmácias
-
Contribuição para audiência pública sobre aspectos concorrenciais dos ecossistemas digitais
Contribuição da Data Privacy Brasil para a audiência pública do Conselho Administrativo de Defesa Econômica (CADE) sobre os aspectos concorrenciais dos ecossistemas digitais de sistemas operacionais móveis, realizada no dia 19 de fevereiro de 2025.
-
Glossário 2024: os principais temas do nosso ano em um só lugar
Confira cinco conceitos que marcaram o ano de 2024 selecionados pela equipe Data!
-
Conheça a norma do encarregado!
Recentemente a Autoridade Nacional de Proteção de Dados (ANPD) publicou o regulamento sobre a atuação do encarregado pelo tratamento de dados pessoais. O Encarregado é uma figura central uma vez que ele é o canal de contato entre o titular dos dados, o agente de tratamento e a ANPD. Separamos tudo o que você precisa saber sobre a nova norma!
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0