Em 2026, o debate público seguirá atravessado por plataformas e sistemas de inteligência artificial que mediam alcance, visibilidade e circulação de mensagens políticas. Nesse cenário, decisões sobre moderação, recomendação e publicidade influenciam quais narrativas ganham tração e como eleitoras e eleitores acessam informação durante a campanha.

É por isso que a atualização das regras eleitorais para o ambiente digital deixou de ser um tema periférico. O processo de consulta pública do TSE cria uma janela importante para antecipar riscos, reduzir assimetrias de informação e tornar mais transparente a atuação de plataformas e campanhas. A participação de organizações da sociedade civil contribui para que essas normas reflitam evidências, direitos e salvaguardas compatíveis com a integridade do processo eleitoral.

O ciclo de audiências do TSE

As audiências públicas ocorreram de 3 a 5 de fevereiro, em formato híbrido, com participação presencial e por videoconferência. Elas foram abertas ao público e à imprensa, sob relatoria do ministro Nunes Marques. No último dia, foram debatidas as minutas sobre propaganda eleitoral, representações e reclamações, e ilícitos eleitorais.

Além do formato híbrido, o TSE adotou medidas de acessibilidade e inclusão. As transmissões contaram com intérpretes de Libras e com tradução simultânea em línguas indígenas, como Tikuna, Yaathe/Fulni-ô e Kaingang, além de Tilis.

Com o encerramento do ciclo, as contribuições serão registradas e analisadas tecnicamente. Em seguida, os textos finais serão debatidos e votados em sessão administrativa. A previsão é de aprovação das resoluções até 5 de março.

Ordem informacional democrática e princípio da precaução

A intervenção da Data Privacy Brasil partiu do reconhecimento de que plataformas, fornecedores de IA e campanhas operam em um ecossistema informacional moldado por algoritmos de recomendação, monetização por engajamento e técnicas avançadas de segmentação. Em um ambiente assim, riscos não são “acidentes”: eles são produzidos por escolhas de design, governança e incentivos.

Em ano eleitoral, muitos desses riscos se materializam em danos difíceis de desfazer. Por isso, além de respostas a casos pontuais, a regulação precisa organizar deveres ex ante: transparência, avaliação e mitigação de riscos, e mecanismos de governança distribuída com participação qualificada.

A partir desse fio condutor, a Data Privacy Brasil apresentou cinco propostas principais de aprimoramento das normas eleitorais.

1- IA com segurança desde a concepção e relatórios periódicos

A primeira contribuição buscou reforçar os deveres de security by design por parte de fornecedores de sistemas de IA, por meio de ajustes no artigo 9-C da minuta.

Além da obrigação de avaliações de impacto em ano eleitoral, a proposta sugere relatórios com periodicidade semanal, com pelo menos:

  • quantidade de contas suspensas por violações relacionadas ao processo eleitoral;
  • medidas de bloqueio ou redução de funcionalidades para mitigação de desinformação e outros ilícitos;
  • descrição de soluções implementadas para ajuste de recomendação e moderação em contexto eleitoral.

A proposta dialoga com medidas recentes envolvendo modelos generativos, como o caso Grok, e busca garantir que a Justiça Eleitoral tenha condições de acompanhar, em tempo mais próximo do real, se as plataformas estão efetivamente ajustando seus sistemas para reduzir riscos, em vez de reagir apenas a casos pontuais de grande repercussão.

2- Versões públicas de relatórios e rede de pesquisa

A segunda frente tratou de transparência e participação. A Data Privacy Brasil defendeu que avaliações de impacto não sejam documentos opacos e propôs que existam versões públicas que permitam à sociedade conhecer:

  • quais riscos foram identificados nos produtos e serviços digitais usados em campanhas
  • quais medidas de mitigação vêm sendo adotadas
  • qual o grau de risco considerado tolerável por plataformas, campanhas e demais atores regulados

Para além da publicação de versões resumidas, a proposta enfatizou a necessidade de arranjos mais participativos. A exemplo do que já foi feito no contexto do chamado ECA Digital, a Data Privacy Brasil defendeu que a Justiça Eleitoral possa e deva credenciar pesquisadores, universidades e também jornalistas para auditoria independente dos produtos e tecnologias com impacto no processo eleitoral.

Esse credenciamento busca formar uma rede de governança mais dinâmica e multidimensional, em que:

  • centros de pesquisa e sociedades científicas produzam evidências sobre os efeitos dos sistemas digitais
  • organizações da sociedade civil contribuam para qualificar a fiscalização e o debate público
  • o jornalismo investigativo tenha melhores condições de escrutinar práticas de plataformas e campanhas

Ao reduzir assimetrias de informação entre grandes empresas de tecnologia e o restante da sociedade, esse arranjo fortalece uma governança pública da integridade informacional, alinhada à experiência de outras agendas regulatórias em que o Estado estrutura redes de monitoramento com participação social organizada.

3- Microdirecionamento político sujeito a relatório de impacto

A terceira proposta aprofundou um tema especialmente sensível em eleições digitais: o microdirecionamento de propaganda política, prática em que mensagens são segmentadas e ajustadas a partir de perfilhamento detalhado de eleitoras e eleitores. A literatura e a experiência brasileira indicam que esse tipo de segmentação amplifica riscos de manipulação invisível, exploração de vulnerabilidades específicas e reforço de desigualdades, sobretudo quando envolve dados sensíveis ou inferências sobre opiniões e preferências políticas.

Por isso, foi sugerido que provedores de aplicações que possibilitam ou oferecem ferramentas de direcionamento de propaganda política baseadas em perfilhamento ou microdirecionamento devam, na forma do artigo 27-A da minuta:

  • elaborar relatórios de impacto à proteção de dados específicos para essas práticas
  • encaminhar esses relatórios ao TSE e à Agência Nacional de Proteção de Dados (ANPD)
  • disponibilizar ao menos um sumário público com as principais conclusões, riscos identificados e medidas de mitigação adotadas

Com essa proposta, busca-se alinhar a regulação eleitoral à lógica da Lei Geral de Proteção de Dados (LGPD) e a recomendações internacionais que tratam o uso intensivo de dados e técnicas de segmentação em campanhas políticas como situação de alto risco, que demanda transparência reforçada, proporcionalidade e mecanismos robustos de responsabilização.

4- Relatórios de alto risco apresentados de forma proativa por partidos e campanhas

A quarta contribuição diz respeito ao artigo 33-D da minuta de resolução, que trata dos relatórios de impacto em situações de tratamento de dados considerados de alto risco. No desenho atual, a Justiça Eleitoral aparece como principal indutora desses relatórios, ao prever que o Tribunal poderá determinar sua elaboração em casos específicos.

A Data Privacy Brasil propôs inverter essa lógica, em linha com a responsabilidade ativa já consagrada na LGPD. Em vez de depender exclusivamente de determinações do TSE, caberia a partidos políticos, federações, coligações e candidaturas que realizam tratamentos de alto risco:

  • identificar tais situações em sua atuação ordinária
  • elaborar os respectivos relatórios de impacto à proteção de dados
  • comunicar de forma proativa tanto o TSE quanto a ANPD sobre esses cenários

Nesse modelo, quem decide utilizar dados pessoais em contextos sensíveis assume o dever inicial de avaliar impactos e de informar os reguladores. A Justiça Eleitoral e a autoridade de proteção de dados passam a analisar os relatórios, podendo exigir ajustes, impor condicionantes e, se necessário, restringir práticas incompatíveis com os parâmetros de proteção de direitos fundamentais.

Essa reconfiguração aproxima a regulação eleitoral da lógica de accountability pró-ativa, reforçando a ideia de que o dever de diligência recai, em primeiro lugar, sobre quem se beneficia do uso de dados pessoais em campanhas e estratégias de comunicação política. Ao mesmo tempo, gera maior produção de evidências sobre riscos e medidas de mitigação, especialmente no período mais crítico do calendário eleitoral.

5- Programas de governança de privacidade nas estruturas partidárias

A quinta proposta tratou da dimensão organizacional e cultural do uso de dados em eleições. A Data Privacy Brasil sugeriu a inclusão de um novo dispositivo, a ser inserido como artigo 33-E, que explicite a obrigação de partidos políticos, federações, coligações e candidaturas de adotarem programas de boas práticas e governança em proteção de dados, com ênfase em governança de dados, privacidade e uso responsável de IA, em sintonia com o artigo 50 da LGPD.

Na prática, isso significa que essas estruturas partidárias deveriam:

  • investir em ações de formação e treinamento contínuo sobre uso responsável de dados e ferramentas de IA
  • adotar procedimentos internos para supervisionar tratamentos de dados em campanhas eleitorais
  • incorporar medidas de mitigação de riscos desde a concepção de estratégias de comunicação e mobilização, em linha com a ideia de privacidade desde a concepção e por padrão

A intervenção destacou que um dos principais gargalos não é apenas tecnológico, de capacidade forense ou normativo, mas, principalmente, humano e organizacional. Por isso, sustentou que as estruturas partidárias deveriam alocar parte do vultoso fundo partidário em programas mais robustos e medidas educativas de governança de dados, privacidade e IA, em diálogo com a lógica da LGPD e da Lei Anticorrupção, que também valorizam programas de integridade como instrumento de mudança cultural nas organizações.

Ao trazer essa agenda para o campo eleitoral, a proposta reforça que a integridade informacional do pleito não depende apenas de normas externas e sanções, mas de uma cultura interna de responsabilidade, transparência e respeito a direitos fundamentais dentro dos próprios partidos e campanhas.

Por que essas propostas importam para as eleições de 2026?

Garantir eleições livres, justas e confiáveis em 2026 passa por levar a sério a governança da informação. Isso vale tanto para as plataformas que intermediam o debate público quanto para as estruturas partidárias que organizam a disputa.

Ao reforçar obrigações de segurança por design e transparência, as propostas ampliam a capacidade de prevenção de riscos. Ao exigir relatórios de impacto, inclusive com versões públicas, fortalecem a produção de evidências e a responsabilização. Ao estimular redes credenciadas de pesquisa e também de jornalismo, reduzem assimetrias de informação e qualificam o escrutínio público. Por fim, ao prever programas de governança de dados, privacidade e IA, contribuem para consolidar práticas internas de integridade e diligência nas organizações que disputam o pleito.

A participação no ciclo de audiências públicas integra uma agenda mais ampla da Data Privacy Brasil para fortalecer uma democracia em que a proteção de dados pessoais não é detalhe lateral, mas componente estruturante da integridade do processo eleitoral e da confiança nas instituições.

Acesse o documento na íntegra aqui.

Veja também

Veja Também