Data Privacy Brasil leva propostas à audiência pública do TSE sobre a minuta da resolução de propaganda eleitoral
No dia 5 de fevereiro de 2026, a Data Privacy Brasil participou da audiência pública no Tribunal Superior Eleitoral (TSE) sobre a minuta da resolução que dispõe sobre propaganda eleitoral e sobre regras relacionadas ao ambiente digital nas Eleições Gerais de 2026. Representada por Bruno Bioni, a organização levou contribuições ancoradas em um ponto de partida: “Os danos no processo eleitoral são tipicamente irreversíveis, por isso a arquitetura regulatória precisa ser mais preventiva”.
Em 2026, o debate público seguirá atravessado por plataformas e sistemas de inteligência artificial que mediam alcance, visibilidade e circulação de mensagens políticas. Nesse cenário, decisões sobre moderação, recomendação e publicidade influenciam quais narrativas ganham tração e como eleitoras e eleitores acessam informação durante a campanha.
É por isso que a atualização das regras eleitorais para o ambiente digital deixou de ser um tema periférico. O processo de consulta pública do TSE cria uma janela importante para antecipar riscos, reduzir assimetrias de informação e tornar mais transparente a atuação de plataformas e campanhas. A participação de organizações da sociedade civil contribui para que essas normas reflitam evidências, direitos e salvaguardas compatíveis com a integridade do processo eleitoral.
O ciclo de audiências do TSE
As audiências públicas ocorreram de 3 a 5 de fevereiro, em formato híbrido, com participação presencial e por videoconferência. Elas foram abertas ao público e à imprensa, sob relatoria do ministro Nunes Marques. No último dia, foram debatidas as minutas sobre propaganda eleitoral, representações e reclamações, e ilícitos eleitorais.
Além do formato híbrido, o TSE adotou medidas de acessibilidade e inclusão. As transmissões contaram com intérpretes de Libras e com tradução simultânea em línguas indígenas, como Tikuna, Yaathe/Fulni-ô e Kaingang, além de Tilis.
Com o encerramento do ciclo, as contribuições serão registradas e analisadas tecnicamente. Em seguida, os textos finais serão debatidos e votados em sessão administrativa. A previsão é de aprovação das resoluções até 5 de março.
Ordem informacional democrática e princípio da precaução
A intervenção da Data Privacy Brasil partiu do reconhecimento de que plataformas, fornecedores de IA e campanhas operam em um ecossistema informacional moldado por algoritmos de recomendação, monetização por engajamento e técnicas avançadas de segmentação. Em um ambiente assim, riscos não são “acidentes”: eles são produzidos por escolhas de design, governança e incentivos.
Em ano eleitoral, muitos desses riscos se materializam em danos difíceis de desfazer. Por isso, além de respostas a casos pontuais, a regulação precisa organizar deveres ex ante: transparência, avaliação e mitigação de riscos, e mecanismos de governança distribuída com participação qualificada.
A partir desse fio condutor, a Data Privacy Brasil apresentou cinco propostas principais de aprimoramento das normas eleitorais.
1- IA com segurança desde a concepção e relatórios periódicos
A primeira contribuição buscou reforçar os deveres de security by design por parte de fornecedores de sistemas de IA, por meio de ajustes no artigo 9-C da minuta.
Além da obrigação de avaliações de impacto em ano eleitoral, a proposta sugere relatórios com periodicidade semanal, com pelo menos:
- quantidade de contas suspensas por violações relacionadas ao processo eleitoral;
- medidas de bloqueio ou redução de funcionalidades para mitigação de desinformação e outros ilícitos;
- descrição de soluções implementadas para ajuste de recomendação e moderação em contexto eleitoral.
A proposta dialoga com medidas recentes envolvendo modelos generativos, como o caso Grok, e busca garantir que a Justiça Eleitoral tenha condições de acompanhar, em tempo mais próximo do real, se as plataformas estão efetivamente ajustando seus sistemas para reduzir riscos, em vez de reagir apenas a casos pontuais de grande repercussão.
2- Versões públicas de relatórios e rede de pesquisa
A segunda frente tratou de transparência e participação. A Data Privacy Brasil defendeu que avaliações de impacto não sejam documentos opacos e propôs que existam versões públicas que permitam à sociedade conhecer:
- quais riscos foram identificados nos produtos e serviços digitais usados em campanhas
- quais medidas de mitigação vêm sendo adotadas
- qual o grau de risco considerado tolerável por plataformas, campanhas e demais atores regulados
Para além da publicação de versões resumidas, a proposta enfatizou a necessidade de arranjos mais participativos. A exemplo do que já foi feito no contexto do chamado ECA Digital, a Data Privacy Brasil defendeu que a Justiça Eleitoral possa e deva credenciar pesquisadores, universidades e também jornalistas para auditoria independente dos produtos e tecnologias com impacto no processo eleitoral.
Esse credenciamento busca formar uma rede de governança mais dinâmica e multidimensional, em que:
- centros de pesquisa e sociedades científicas produzam evidências sobre os efeitos dos sistemas digitais
- organizações da sociedade civil contribuam para qualificar a fiscalização e o debate público
- o jornalismo investigativo tenha melhores condições de escrutinar práticas de plataformas e campanhas
Ao reduzir assimetrias de informação entre grandes empresas de tecnologia e o restante da sociedade, esse arranjo fortalece uma governança pública da integridade informacional, alinhada à experiência de outras agendas regulatórias em que o Estado estrutura redes de monitoramento com participação social organizada.
3- Microdirecionamento político sujeito a relatório de impacto
A terceira proposta aprofundou um tema especialmente sensível em eleições digitais: o microdirecionamento de propaganda política, prática em que mensagens são segmentadas e ajustadas a partir de perfilhamento detalhado de eleitoras e eleitores. A literatura e a experiência brasileira indicam que esse tipo de segmentação amplifica riscos de manipulação invisível, exploração de vulnerabilidades específicas e reforço de desigualdades, sobretudo quando envolve dados sensíveis ou inferências sobre opiniões e preferências políticas.
Por isso, foi sugerido que provedores de aplicações que possibilitam ou oferecem ferramentas de direcionamento de propaganda política baseadas em perfilhamento ou microdirecionamento devam, na forma do artigo 27-A da minuta:
- elaborar relatórios de impacto à proteção de dados específicos para essas práticas
- encaminhar esses relatórios ao TSE e à Agência Nacional de Proteção de Dados (ANPD)
- disponibilizar ao menos um sumário público com as principais conclusões, riscos identificados e medidas de mitigação adotadas
Com essa proposta, busca-se alinhar a regulação eleitoral à lógica da Lei Geral de Proteção de Dados (LGPD) e a recomendações internacionais que tratam o uso intensivo de dados e técnicas de segmentação em campanhas políticas como situação de alto risco, que demanda transparência reforçada, proporcionalidade e mecanismos robustos de responsabilização.
4- Relatórios de alto risco apresentados de forma proativa por partidos e campanhas
A quarta contribuição diz respeito ao artigo 33-D da minuta de resolução, que trata dos relatórios de impacto em situações de tratamento de dados considerados de alto risco. No desenho atual, a Justiça Eleitoral aparece como principal indutora desses relatórios, ao prever que o Tribunal poderá determinar sua elaboração em casos específicos.
A Data Privacy Brasil propôs inverter essa lógica, em linha com a responsabilidade ativa já consagrada na LGPD. Em vez de depender exclusivamente de determinações do TSE, caberia a partidos políticos, federações, coligações e candidaturas que realizam tratamentos de alto risco:
- identificar tais situações em sua atuação ordinária
- elaborar os respectivos relatórios de impacto à proteção de dados
- comunicar de forma proativa tanto o TSE quanto a ANPD sobre esses cenários
Nesse modelo, quem decide utilizar dados pessoais em contextos sensíveis assume o dever inicial de avaliar impactos e de informar os reguladores. A Justiça Eleitoral e a autoridade de proteção de dados passam a analisar os relatórios, podendo exigir ajustes, impor condicionantes e, se necessário, restringir práticas incompatíveis com os parâmetros de proteção de direitos fundamentais.
Essa reconfiguração aproxima a regulação eleitoral da lógica de accountability pró-ativa, reforçando a ideia de que o dever de diligência recai, em primeiro lugar, sobre quem se beneficia do uso de dados pessoais em campanhas e estratégias de comunicação política. Ao mesmo tempo, gera maior produção de evidências sobre riscos e medidas de mitigação, especialmente no período mais crítico do calendário eleitoral.
5- Programas de governança de privacidade nas estruturas partidárias
A quinta proposta tratou da dimensão organizacional e cultural do uso de dados em eleições. A Data Privacy Brasil sugeriu a inclusão de um novo dispositivo, a ser inserido como artigo 33-E, que explicite a obrigação de partidos políticos, federações, coligações e candidaturas de adotarem programas de boas práticas e governança em proteção de dados, com ênfase em governança de dados, privacidade e uso responsável de IA, em sintonia com o artigo 50 da LGPD.
Na prática, isso significa que essas estruturas partidárias deveriam:
- investir em ações de formação e treinamento contínuo sobre uso responsável de dados e ferramentas de IA
- adotar procedimentos internos para supervisionar tratamentos de dados em campanhas eleitorais
- incorporar medidas de mitigação de riscos desde a concepção de estratégias de comunicação e mobilização, em linha com a ideia de privacidade desde a concepção e por padrão
A intervenção destacou que um dos principais gargalos não é apenas tecnológico, de capacidade forense ou normativo, mas, principalmente, humano e organizacional. Por isso, sustentou que as estruturas partidárias deveriam alocar parte do vultoso fundo partidário em programas mais robustos e medidas educativas de governança de dados, privacidade e IA, em diálogo com a lógica da LGPD e da Lei Anticorrupção, que também valorizam programas de integridade como instrumento de mudança cultural nas organizações.
Ao trazer essa agenda para o campo eleitoral, a proposta reforça que a integridade informacional do pleito não depende apenas de normas externas e sanções, mas de uma cultura interna de responsabilidade, transparência e respeito a direitos fundamentais dentro dos próprios partidos e campanhas.
Por que essas propostas importam para as eleições de 2026?
Garantir eleições livres, justas e confiáveis em 2026 passa por levar a sério a governança da informação. Isso vale tanto para as plataformas que intermediam o debate público quanto para as estruturas partidárias que organizam a disputa.
Ao reforçar obrigações de segurança por design e transparência, as propostas ampliam a capacidade de prevenção de riscos. Ao exigir relatórios de impacto, inclusive com versões públicas, fortalecem a produção de evidências e a responsabilização. Ao estimular redes credenciadas de pesquisa e também de jornalismo, reduzem assimetrias de informação e qualificam o escrutínio público. Por fim, ao prever programas de governança de dados, privacidade e IA, contribuem para consolidar práticas internas de integridade e diligência nas organizações que disputam o pleito.
A participação no ciclo de audiências públicas integra uma agenda mais ampla da Data Privacy Brasil para fortalecer uma democracia em que a proteção de dados pessoais não é detalhe lateral, mas componente estruturante da integridade do processo eleitoral e da confiança nas instituições.
Veja também
-
Tabuleiro #141 | A construção das regras das Eleições Gerais de 2026
No Tabuleiro realizamos uma curadoria semanal com o que há de mais atual e relevante no campo da proteção de dados. Confira a edição desta semana!
-
Dia Internacional da Proteção de Dados: uma data cada vez mais relevante
Neste Dia Internacional da Proteção de Dados, traçamos um panorama sobre sua origem, a evolução do conceito de privacidade, as diferentes abordagens regulatórias ao redor do mundo e o novo marco da adequação entre Brasil e União Europeia.
-
O que esperar de 2026 na agenda de direitos digitais?
A Data Privacy Global Conference encerrou 2025 com algumas mensagens importantes para o campo da governança de dados e tecnologias. Uma delas foi a centralidade das escolhas de design de produtos e serviços para a proteção de direitos fundamentais no ambiente online, em particular de crianças e adolescentes. Também central foram as altas expectativas, e incertezas, sobre […]
-
Já ajustou sua agenda com a da ANPD?
Talvez o local mais propício para entender o futuro da proteção de dados e proteção da criança online seja a Agenda Regulatória e o Mapa de Temas Prioritários de 2026 publicados pela Agência Nacional de Proteção de Dados. Fique por dentro das expectativas regulatórias do ano!
-
Agenda de direitos digitais em 2026: adequação ao ECA Digital, regulação de IA e concorrência
O início de 2026 já dá o tom das principais discussões em direitos digitais deste ano. Casos recentes, que vão de plataformas de jogos a assistentes de inteligência artificial, ajudam a entender como conflitos concretos de design, mercado e governança estão sendo rapidamente conectados a iniciativas legislativas e regulatórias no Brasil. Afinal, o que esse começo de ano propõe para o campo dos direitos digitais?
-
Como participar da construção das regras das Eleições Gerais de 2026
A participação na elaboração das normas eleitorais importa. Ela reforça a legitimidade, melhora a qualidade do debate público e reduz a distância entre o que está no papel e o que acontece na prática. Saiba como você pode fazer a diferença!
-
A Cúpula de Impacto de IA de 2026 (“AI Impact Summit”)
A Cúpula de Impacto da Inteligência Artificial, internacionalmente conhecida como AI Impact Summit, é um evento que será realizado pelo governo da Índia em fevereiro de 2026, em Nova Délhi, em continuidade às cúpulas anteriormente promovidas pelos governos do Reino Unido e da França. Fique por dentro!
Veja Também
-
Tabuleiro #141 | A construção das regras das Eleições Gerais de 2026
No Tabuleiro realizamos uma curadoria semanal com o que há de mais atual e relevante no campo da proteção de dados. Confira a edição desta semana!
-
O que esperar de 2026 na agenda de direitos digitais?
A Data Privacy Global Conference encerrou 2025 com algumas mensagens importantes para o campo da governança de dados e tecnologias. Uma delas foi a centralidade das escolhas de design de produtos e serviços para a proteção de direitos fundamentais no ambiente online, em particular de crianças e adolescentes. Também central foram as altas expectativas, e incertezas, sobre […]
-
Já ajustou sua agenda com a da ANPD?
Talvez o local mais propício para entender o futuro da proteção de dados e proteção da criança online seja a Agenda Regulatória e o Mapa de Temas Prioritários de 2026 publicados pela Agência Nacional de Proteção de Dados. Fique por dentro das expectativas regulatórias do ano!
-
Agenda de direitos digitais em 2026: adequação ao ECA Digital, regulação de IA e concorrência
O início de 2026 já dá o tom das principais discussões em direitos digitais deste ano. Casos recentes, que vão de plataformas de jogos a assistentes de inteligência artificial, ajudam a entender como conflitos concretos de design, mercado e governança estão sendo rapidamente conectados a iniciativas legislativas e regulatórias no Brasil. Afinal, o que esse começo de ano propõe para o campo dos direitos digitais?
-
Como participar da construção das regras das Eleições Gerais de 2026
A participação na elaboração das normas eleitorais importa. Ela reforça a legitimidade, melhora a qualidade do debate público e reduz a distância entre o que está no papel e o que acontece na prática. Saiba como você pode fazer a diferença!
-
A Cúpula de Impacto de IA de 2026 (“AI Impact Summit”)
A Cúpula de Impacto da Inteligência Artificial, internacionalmente conhecida como AI Impact Summit, é um evento que será realizado pelo governo da Índia em fevereiro de 2026, em Nova Délhi, em continuidade às cúpulas anteriormente promovidas pelos governos do Reino Unido e da França. Fique por dentro!
-
Caso Grok: quando imagens sintéticas produzem danos reais
Nas últimas semanas, o chatbot Grok (da xAI), que integra o mesmo grupo da rede social X (ex-Twitter), está no centro de uma controvérsia que envolve a geração de imagens sexualizadas sem consentimento. Saiba mais sobre o caso.
-
Dados ecossistemas e Infraestruturas: A 1ª Edição da Escola de Governança de Dados
Entre 10 e 14 de novembro de 2025, a Data Privacy Brasil com apoio do CEDIS-IDP fez a primeira edição da Escola de Governança de Dados no IDP, em Brasília. Com apoio do CEDIS-IDP o curso promoveu um espaço de discussão qualificada dessa forma de enxergar dados e infraestrutura de maneira integrada a partir da governança de dados. Vem ver o que rolou no curso!
-
COP30, dados e uso da terra: conversando sobre agendas de combate à grilagem
No dia 12 de novembro de 2025, a Data Privacy Brasil realizou uma roda de conversa sobre dados e grilagem de terras, como parte da programação da COP do Povo, evento paralelo à COP30. Intitulada “COP30, dados e uso da terra: conversando sobre agendas de combate à grilagem”. Confira nosso relato!
-
Em memória de Danilo Doneda
Hoje, quatro de dezembro, completam-se três anos sem Danilo Doneda, um dos pioneiros e condutores do campo da proteção de dados pessoais no Brasil. A presença dele na Data Privacy Brasil segue sendo marcante e inspiradora.
-
Nota pública sobre o PL 5582/2025 (PL Antifacção)
A Data Privacy Brasil vem a público externar sua preocupação com as propostas voltadas para tratamento de dados pessoais e criação do Banco Nacional de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias Privadas e dos Bancos Estaduais de Dados de Organizações Criminosas Ultraviolentas, Grupos Paramilitares ou Milícias privadas.
-
Nota pública sobre Sistema Nacional de Regulação e Governança de Inteligência Artificial
A Data Privacy Brasil vem a público reforçar a necessidade de uma legislação de Inteligência Artificial que preveja um sistema robusto de aplicação de normas, tal como proposto com o Sistema Nacional de Regulação e Governança de Inteligência Artificial, batizado de “SIA” no Projeto de Lei 2338/2023, em discussão na Câmara dos Deputados.
-
Caso Córtex: o Combate ao Megazord da Vigilância
O sistema Córtex, regulamentado em 2021, é uma grande plataforma de vigilância criada pelo governo federal, capaz de unificar e cruzar informações de mais de 160 bases de dados, públicas e sigilosas, sobre pessoas, veículos e empresas. Seu propósito é definir alvos para cercamento eletrônico e monitoramento persistente. O acesso é capilarizado, alcançando Polícias Militares, Civis e até Guardas Civis Metropolitanas. Conforme detalhamos em nossa análise “Por que precisamos rever o uso do Córtex no Brasil?”, publicada em dezembro de 2024, a decisão de revisão do programa Córtex não surgiu como uma iniciativa espontânea, mas sim como uma reação a pressões feitas pela sociedade civil nos últimos quatro anos.
-
Caminhos para a regulação de IA no Brasil
Nos últimos meses, a Data Privacy Brasil reuniu seu time de pesquisa para refletir sobre mudanças possíveis no texto do Projeto de Lei 2338/23, que define princípios, direitos e regras de governança para sistemas de Inteligência Artificial (IA) no Brasil.
-
Proteção de dados e transparência pública em prol de políticas ambientais
Decisão da 9ª Vara Federal Ambiental e Agrária da Justiça Federal do Pará garante abertura de dados da Guia de Trânsito Animal no estado.
-
Governança da IA de baixo para cima
Nos dias 25 e 26/09/25, participamos do evento “Workers Governing Technologies Workshop”, promovido pelo grupo de pesquisa Creative Labour and Creative Futures na Universidade de Toronto no Canadá.
-
A transformação da ANPD: de Autoridade à Agência Nacional de Proteção de Dados
A ANPD encontra-se em um momento decisivo de consolidação institucional, marcado por mudanças normativas e estruturais que reforçam sua posição como órgão regulador central no ecossistema de proteção de dados brasileiro.
-
Já é Carnaval, meu amor, proteja-se!
O Carnaval do Brasil é mundialmente conhecido, seja pela tradição do samba na avenida ou pela imensidão dos blocos de rua. Na euforia dos blocos, muitas vezes encontramos um problema crítico: danos causados a pessoas que tiveram celulares furtados ou roubados, com invasões de contas, redes sociais e aplicativos de mensageria. Confira as dicas para você curtir com segurança!
-
O que está por trás do CPF nas farmácias?
4 conteúdos para você se aprofundar na relação entre dados e farmácias
-
Contribuição para audiência pública sobre aspectos concorrenciais dos ecossistemas digitais
Contribuição da Data Privacy Brasil para a audiência pública do Conselho Administrativo de Defesa Econômica (CADE) sobre os aspectos concorrenciais dos ecossistemas digitais de sistemas operacionais móveis, realizada no dia 19 de fevereiro de 2025.
-
Glossário 2024: os principais temas do nosso ano em um só lugar
Confira cinco conceitos que marcaram o ano de 2024 selecionados pela equipe Data!
-
Conheça a norma do encarregado!
Recentemente a Autoridade Nacional de Proteção de Dados (ANPD) publicou o regulamento sobre a atuação do encarregado pelo tratamento de dados pessoais. O Encarregado é uma figura central uma vez que ele é o canal de contato entre o titular dos dados, o agente de tratamento e a ANPD. Separamos tudo o que você precisa saber sobre a nova norma!
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0