O julgamento de dois júris civis envolvendo as Big Techs nos EUA tem provocado uma mudança paradigmática na aplicação do direito com relação às tecnologias da informação. Apesar de serem casos distintos no Novo México e na Califórnia, ambos representam a derrubada das teses de imunidade da Section 230 (imunidade por conteúdos de terceiros) e novas teorias de responsabilidade civil por decisões de design e condutas das empresas.

O primeiro júri, do Tribunal Estadual do Novo México, teve como objeto uma ação movida pelo Attorney General Raúl Torrez. A condenação de US$ 375 milhões contra a Meta ocorreu por risco coletivo à população, violação de normas de proteção ao consumidor e falha na prevenção de exploração sexual infantil, permitindo a atuação de predadores na plataforma. O segundo júri, da Corte Superior de Los Angeles, envolveu Google e Meta, por uma ação movida pela cidadã K.G.M. Neste caso, decidiu-se pela violação do dever em razão de design intencionalmente viciante, ausência de alertas e nexo causal de dano psicológico. A condenação foi de US$ 6 milhões por danos compensatórios e punitivos, com distribuição entre Google e Meta.

Historicamente as plataformas não são responsabilizadas por consequências decorrentes de seus usos por qualquer usuário, graças a uma legislação estadunidense (a Seção 230 do Ato de Decência das Comunicações de 1996) que preza pela liberdade de expressão. Essa formatação foi automaticamente “exportada” para os demais países conforme essas empresas foram se expandindo e atingindo um caráter transnacional e de dependência nas sociedades. Agora, a decisão da corte estadunidense (que ainda permite às empresas recorrerem) marca um importante precedente atrelado à defesa do consumidor: essas plataformas falharam em comunicar a nocividade da qual elas já possuem conhecimento, conforme provam e-mails e documentos internos.

Os casos podem produzir um “efeito cascata”, com centenas de ações movidas por famílias que tiveram danos relevantes em razão do uso de aplicações como Instagram, SnapChat, TikTok, YouTube e outros. Os precedentes, em síntese, impulsionam um deslocamento do debate jurídico relevante: não se trata do que as pessoas postam, mas de como as plataformas são construídas. O enfoque está no design das arquiteturas informacionais e na responsabilidade por produtos e serviços defeituosos, retomando uma antiga categoria do direito do consumidor.

No Brasil, vemos que as teorias sobre responsabilidade por falha na prestação do serviço e os deveres de prevenção, típicos do Código de Defesa do Consumidor, estão fortemente presentes no ECA Digital (Lei 15.211/2025). Os serviços digitais com acesso provável de crianças e adolescentes devem garantir, por lei, a proteção integral e a prevalência de seus interesses. O ECA Digital institui o fundamento de proteção contra a exploração comercial em plataformas e “medidas razoáveis desde a concepção”, com o objetivo de prevenir e mitigar riscos de exposição a uma série de conteúdos ilícitos, como incitação a comportamentos que levem a danos à saúde mental.

Em aula aberta sobre o Decreto 12.880/2026, explicamos como o governo federal tem priorizado questões de design manipulativo e a prevenção de uso excessivo, problemático ou compulsivo de produtos e serviços de tecnologia da informação por crianças e adolescentes. O sistema jurídico brasileiro já define que é ilícito, a partir de março de 2026, o acionamento de novos conteúdos sem solicitação, a oferta de recompensas pelo tempo de uso ou o aparecimento de notificações excessivas.

A Data Privacy Brasil tem mobilizado, em aulas e pesquisas, a discussão sobre ilícitos decorrentes de escolhas de designs manipulativos e viciantes. O “safety by design” é uma exigência para os times de tecnologia quando há acesso provável de crianças e adolescentes. Os júris civis nos EUA se conectam fortemente aos parâmetros jurídicos previstos no ECA Digital e no Decreto 12.880/2026.

Em 27 de abril, a Data co-organizará o evento “ECA Digital e Democracia Intergeracional” no Auditório Tech da ESPM em São Paulo, com apoio da ESPM, IDP e Instituto Alana. Esperamos que essas discussões auxiliem agentes decisórios em casos futuros, incluindo o relevante papel a ser desempenhado pela Agência Nacional de Proteção de Dados no Brasil.

Veja também

Veja Também