O início de 2026 já dá o tom das principais discussões em direitos digitais deste ano.  Casos recentes, que vão de plataformas de jogos a assistentes de inteligência artificial, ajudam a entender como conflitos concretos de design, mercado e governança estão sendo rapidamente conectados a iniciativas legislativas e regulatórias no Brasil. Afinal, o que esse começo de ano propõe para o campo dos direitos digitais?

Panorama

Três casos emblemáticos para os direitos digitais marcaram as primeiras semanas de 2026. São eles a revolução dos usuários de Roblox contra mudanças nas regras de comunicação da plataforma,, a controvérsia envolvendo imagens sexualizadas de pessoas geradas pelo Grok e a mudança nas políticas de privacidade da Meta AI que dificulta a presença de outras ferramentas de IA no WhatsApp.

Apesar de serem casos bastante distintos, os casos revelam importantes tensões dos direitos digitais: a proteção da infância online, a regulação de inteligência artificial e dos mercados digitais.  Temas que vêm se fazendo presentes em fiscalizações e que contam com projetos de lei aprovados ou ainda em discussão no legislativo.

Vamos desvendar esse panorama? 

Proteção da infância online

No começo de janeiro, usuários da Roblox organizaram protestos dentro do próprio universo do jogo contra uma atualização que bloqueou o chat por texto e voz entre pessoas de faixas etárias diferentes. A medida, testada em dezembro e tornada global em 7 de janeiro, foi justificada pela empresa como uma forma de reduzir riscos de assédio e contatos inadequados entre adultos e crianças.

No Brasil, a reação ganhou contornos próprios.  Apesar de ser um movimento global da plataforma, os usuários brasileiros de Roblox definiram um alvo como o responsável pelas mudanças: o influenciador digital Felca e a entrada em vigor do ECA Digital. A lei que entra em vigor em março de 2026  estabelece novas  reorganização das expectativas regulatórias sobre plataformas  acessadas ou de acesso provável por crianças e adolescentes.

Para jogos eletrônicos, o ECA Digital traz comandos diretos: proíbe o uso de caixas de recompensa (loot boxes) (art. 20).  Jogos que permitem comunicação síncrona ou assíncrona entre usuários (com recursos de mensagens, voz ou vídeo) devem  limitar as funcionalidades de interação a usuários por padrão (art. 21 P.U.).

Além disso, jogos com essas características precisam observar as salvaguardas previstas no  art. 16 do Marco legal da indústria de jogos eletrônicos (Lei nº 14852/24), que envolvem: 

  1. Mecanismos de denúncia e processamento de abusos ou irregularidades e retorno ao usuário denunciante sobre o resultado das denúncias;
  2. Direito de revisão de decisões e penalidades;
  3. Transparência pública sobre denúncias, métodos de moderação, sanções, ações educativas e medidas de mitigação de risco ;
  4. Proibição, nos termos de uso, de práticas e interações que violem direitos de crianças e adolescentes ;
  5. Ferramentas de supervisão e moderação parental atualizadas, adequadas à idade e que respeitem a autonomia progressiva da criança ou adolescente;
  6. Mecanismos de proteção contra riscos de contato com outros usuários, com opção de desativar interações ;
  7. Informações claras e em português, com linguagem acessível a crianças, adolescentes e responsáveis .

Com a vigência da lei em menos de 2 meses, a Agência Nacional de Proteção de Dados decidiu prorrogar para 13 de fevereiro o prazo para que 37 empresas apresentem informações sobre medidas técnicas e organizacionais adotadas para se adequar à nova legislação.  Dentre as empresas, está o Roblox.

A decisão de prorrogar o prazo ocorreu após manifestações de diferentes setores afetados, que destacaram o prazo reduzido e a complexidade  para entrarem em conformidade com a lei. Segundo os agentes consultados pela agência, tais circunstâncias poderiam comprometer a qualidade e a consistência das informações a serem prestadas.

Regulação de mercados digitais

Em 12 de Janeiro, a Superintendência-Geral do Conselho Administrativo de Defesa Econômica abriu inquérito administrativo contra empresas do grupo Meta, investigando possíveis abusos de posição dominante ligados aos novos termos do WhatsApp Business Solution.

De acordo com nota divulgada pelo Cade, as investigações apontam indícios de condutas anticoncorrenciais a partir dos novos termos do WhatsApp Business Solution, por provedores de ferramentas de inteligência artificial, de suas tecnologias aos usuários do WhatsApp.

A Superintendência-Geral determinou a adoção de uma medida preventiva, suspendendo a aplicação dos novos termos até que o Cade possa avaliar, de forma aprofundada, todos os possíveis indícios de infração à ordem econômica identificados no caso.

Segundo as empresas que apresentaram a representação ao Cade, a principal alteração promovida pela Meta nos novos termos do WhatsApp diz respeito ao banimento do acesso de desenvolvedores de inteligência artificial à plataforma.

Após a abertura do inquérito administrativo contra a Meta AI, a Superintendência-Geral (SG) do Conselho Administrativo de Defesa Econômica (Cade) enviou ao WhatsApp e Facebook um questionário para ser respondido até o dia 30 de janeiro.

O questionário da área técnica do Cade é formado por três seções:

  • Questões gerais;
  • Tratamento de serviços de IA;
  • Alterações nos Termos de Uso do WhatsApp.

O órgão concorrencial brasileiro também pede que a empresa responda se, após a alteração dos termos do WhatsApp Business Solution anunciada em outubro de 2025, existe qualquer distinção de tratamento entre os serviços de inteligência artificial ofertados por terceiros e as funcionalidades ou serviços de IA desenvolvidos, controlados ou operados por empresas do Grupo Meta.

No ofício, a SG alertou que a recusa, omissão ou retardamento injustificado das informações ou documentos solicitados pode resultar em multa diária de R$ 5 mil, podendo ser aumentada em até 20 vezes, “se necessário para garantir a eficácia, em razão da situação econômica do infrator”.

O caso também teve repercussão internacional. no mesmo dia em que o CADE aplicou a medida preventiva, a Meta informou que os números de telefone da Itália ficariam isentos da política de privacidade que proibia o uso de chatbots no WhatsApp. A medida vem após ordem da autoridade de proteção da concorrência italiana.

Na ocasião, a The Interaction Company, que desenvolveu o assistente de IA Poke.com, apresentou reclamações tanto às autoridades de concorrência italianas quanto às da União Europeia, criticando a exclusividade da medida na Itália, argumentando que a política de privacidade deveria ser suspensa em toda a UE.

O caso dialoga diretamente com o PL 4675/25 (proteção da concorrência em mercados digitais). Segundo o texto, o Cade poderá indicar agentes econômicos considerados de relevância sistêmica em mercados digitais e impor deveres a esses agentes, incluindo multas.

Somente serão designados agentes econômicos de relevância sistêmica os grupos com faturamento bruto global superior a R$ 50 bilhões por ano ou superior a R$ 5 bilhões por ano no Brasil. Plataformas que forem designadas como relevantes deverão abrir escritório no País, em prazo a ser estabelecido pelo Cade. O descumprimento levará a multa diária de R$ 20 mil, que poderá ser aumentada para até R$ 1 milhão por dia.

O Cade poderá ainda proibir, por exemplo, atos ou práticas que limitem ou impeçam a participação de concorrentes no mercado, limitem o acesso a ofertas, produtos ou serviços relevantes para concorrentes, favoreçam as próprias ofertas, produtos ou serviços em detrimento de outras empresas, limitem ou impeçam o acesso a produtos ou serviços oferecidos a terceiros, impeçam ou dificultem que usuários empresariais ofertem seus produtos diretamente aos usuários finais, dentre outros.

O caso indica como a governança dos dados pode ser vista como um  elemento de concorrência. Decisões sobre quem pode acessar dados, APIs e canais de distribuição podem afetar profundamente a dinâmica de um mercado. Com o PL 4675/25  práticas de fechamento de ecossistemas digitais poderão ser tratadas como problemas de mercado no futuro.

Regulação de inteligência artificial

Talvez nenhum episódio sintetize melhor as tensões de 2026 do que o caso do Grok, chatbot integrado à plataforma X. A ferramenta de IA generativa se tornou o centro de uma controvérsia após tornar possível a geração de imagens sexualizadas de pessoas por usuários na rede social, inclusive crianças e adolescentes, desencadeou uma reação em cadeia: pressões internacionais para remoção do aplicativo, bloqueios em alguns países e, no Brasil, denúncias a órgãos de defesa do consumidor e à ANPD levaram a emissão de medida preventiva contra o X.

No cenário internacional, grupos de defesa de direitos das mulheres, entidades de fiscalização do campo da tecnologia e ativistas estão  pressionando a Google, e a Apple a remover a rede social X e seu chatbot associado, o Grok, de suas lojas de aplicativos

A iniciativa, que conta com o apoio do grupo feminista UltraViolet, da Organização Nacional para as Mulheres (NOW, na sigla em inglês), do grupo liberal MoveOn e do grupo de defesa dos pais ParentsTogether Action, visa pressionar Musk depois que o Grok começou a gerar imagens sexualmente explícitas, degradantes ou violentas de mulheres e crianças.

Países do Sudeste Asiático, como Indonésia e Malásia, bloquearam o acesso ao Grok e passaram a mover ações judiciais contra a X, alegando falhas na prevenção de conteúdo nocivo e na proteção de usuários.

No Reino Unido, o governo anunciou a aceleração de uma lei que criminaliza deepfakes de natureza sexual. Austrália e Índia abriram investigações formais e emitiram alertas públicos. Nos Estados Unidos, parlamentares e organizações da sociedade civil pressionaram lojas de aplicativos a removerem o X e o Grok de suas bibliotecas.

No Brasil, o Instituto de Defesa de Consumidores (Idec) protocolou uma denúncia junto à Agência Nacional de Proteção de Dados (ANPD) contra a ferramenta. De acordo com o Instituto, a ferramenta permite a criação de imagens sexualizadas que mantêm características reais das pessoas retratadas e as expõe sem consentimento, em violação à Lei Geral de Proteção de Dados (LGPD). No caso de crianças e adolescentes, o Instituto destaca que a prática é ainda mais grave, pois a legislação brasileira impõe regras mais rigorosas para o uso de dados desse público.

Entre os pedidos feitos à ANPD, o Idec solicita a suspensão imediata das funcionalidades do Grok, a interrupção do uso de dados pessoais para treinar e operar o sistema, bem como a exigência de apresentação, em prazo a ser fixado, de informações sobre as denúncias e solicitações recebidas e tratadas pelo X.

O Partido dos Trabalhadores (PT) encaminhou um ofício à Secretaria Nacional do Consumidor, Senacon para pedir a adoção de medidas administrativas e legais para bloquear ou banir o Grok.

O partido afirmou que “tais práticas configuram graves violações a direitos humanos, à dignidade da pessoa humana, à proteção integral de crianças e adolescentes, à honra, à imagem e à intimidade, além de representarem sério risco à ordem pública e à segurança digital no Brasil”.

Em nota, o Ministério das Mulheres expressou séria preocupação em relação à utilização de ferramentas de inteligência artificial, como o Grok para a criação e disseminação não autorizada de conteúdos eróticos ou de nudez.

A pasta afirmou que a “produção de conteúdos sem consentimento fere o princípio constitucional da dignidade humana”. Além disso, reforçou a urgência da aprovação do projeto de lei 2.338/2023, que cria um marco legal para a inteligência artificial (IA).

Em resposta, A Agência Nacional de Proteção de Dados (ANPD), o Ministério Público Federal (MPF) e a Secretaria Nacional do Consumidor (Senacon) do Ministério da Justiça e Segurança Pública expediram à plataforma digital X recomendação conjunta sobre o Grok. 

Entre as recomendações está a de que sejam imediatamente implementadas medidas destinadas a impedir que o Grok gere novas imagens, vídeos ou áudio que representem crianças e adolescentes em contextos sexualizados ou erotizados, ou que representem pessoas naturais maiores de idade identificadas ou identificáveis, em contextos sexualizados ou erotizados, sem sua autorização.Tais medidas devem valer para todos os planos, as versões e as modalidades da ferramenta.

Além disso, as instituições também recomendaram à empresa:

  •  Criar,no prazo máximo de 30 dias, procedimentos técnicos e operacionais claros e eficazes para identificar, revisar e remover conteúdo desse tipo que já tenham sido produzidos e ainda estejam disponíveis na plataforma X, quando gerados pelo Grok a partir de comandos feitos por usuários.
  •  A suspensão imediata das contas envolvidas na produção, via Grok, de imagens sexuais ou erotizadas tanto de crianças e adolescentes, quanto de maiores de idade sem sua autorização.
  •  Implementar mecanismo transparente, acessível e eficaz para que titulares de dados possam exercer seus direitos, incluindo o envio de denúncias sobre uso irregular, abusivo ou ilegal de dados pessoais, especialmente nos casos de criação de conteúdos sintéticos sexualizados ou erotizados sem consentimento, assegurando resposta adequada e em prazo razoável.
  •  Elaborar relatório de impacto à proteção de dados pessoais específico para as atividades de geração de conteúdo sintético de pessoas identificadas ou identificáveis .

No início do ano, o próprio Grok reconheceu que falhas em seus mecanismos de proteção levaram à geração de imagens sexualizadas envolvendo crianças e adolescentes, que acabaram sendo publicadas na plataforma X.  Após as críticas, a plataforma limitou o uso do Grok a usuários pagantes.

Legislações como o Estatuto da Criança e do Adolescente Digital – ECA Digital (que caminha para sua entrada em vigor), a Lei Geral de Proteção de Dados – LGPD e o Código de Defesa do Consumidor – CDC dispõem de mecanismos legais contra tais práticas.

Além disso, o PL 2338/23, conhecido como Marco Legal da Inteligência Artificial, incorpora princípios como o dever de prevenir danos, a realização de avaliações de risco antes da disponibilização de sistemas e a responsabilização por usos previsíveis e abusivos da tecnologia. Casos como este ajudam a ilustrar por que esses dispositivos são centrais no debate regulatório.

Fique por dentro dos principais debates com a Data

Os três episódios apontam para uma convergência clara. Direitos digitais em 2026  serão discutidos  a partir de conflitos concretos envolvendo crianças, dados, poder econômico e escolhas de design.

Os casos destacados mostram que a agenda de direitos digitais está entrando em uma fase de operacionalização, com maior operacionalização de direitos e ação ativa de fiscalização.

Fique por dentro do que há de mais essencial em direitos digitais com a Data.

Até a próxima!

Veja também

Veja Também