Na sessão extraordinária de 2 de março, o Tribunal Superior Eleitoral (TSE) aprovou um conjunto de regras que coloca a inteligência artificial (IA) no centro da regulação da propaganda eleitoral para 2026. A resposta da Justiça Eleitoral parte do diagnóstico de que, em um ambiente em que conteúdos sintéticos podem ser gerados e distribuídos em alta velocidade, o dever de transparência, sozinho, não é suficiente para conter danos que são, muitas vezes, irreversíveis.

Três eixos se destacam para o debate público: uma restrição temporal inédita para a circulação de conteúdos sintéticos novos no período mais sensível do pleito; o reforço de medidas de transparência e sinalização quando houver uso de IA, inclusive em chatbots e avatares; e a criação de instrumentos de responsabilização preventiva, com exigência de planos de conformidade para provedores, em linha com a necessidade de mensurar a diligência e prudência das plataformas e seus impactos sobre a integridade eleitoral.

As regras aprovadas não surgiram de forma isolada. Elas são resultado de um processo que envolveu consultas abertas, audiência pública e contribuições técnicas. Segundo a Folha de São Paulo, o TSE recebeu 1.423 propostas de alteração às minutas apresentadas em janeiro, parte delas discutidas na audiência pública do início de fevereiro.

A restrição temporal para conteúdos sintéticos novos

A medida de maior repercussão foi a proibição de publicação, republicação e impulsionamento de novos conteúdos produzidos ou alterados por IA nas 72 horas que antecedem cada turno da votação e nas 24 horas posteriores ao encerramento da eleição. Essa restrição incide sobre conteúdos sintéticos novos, isto é, materiais que modifiquem imagem, voz ou manifestação de candidatas e candidatos, ou de pessoas públicas, e não abrange materiais antigos já em circulação.

Segundo declaração do relator, ministro Kassio Nunes Marques, reproduzida pela Folha de São Paulo, o objetivo é evitar “surpresas indesejáveis no período mais crítico do processo eleitoral”, inclusive vedando, nesse intervalo, a circulação de conteúdos sintéticos novos ainda que estejam rotulados. O desenho busca responder ao risco de conteúdos fabricados ou manipulados circularem em alta velocidade quando o eleitor tem pouco tempo para avaliar informações e checar sua veracidade.

A escolha por uma vedação absoluta dentro dessa janela temporal revela um diagnóstico relevante: há momentos do processo eleitoral em que o dano informacional pode ser estruturalmente irreversível. Outro elemento importante é que a vedação alcança conteúdos sintéticos novos mesmo quando rotulados. Isso porque a norma reconhece que, no contexto de manipulações audiovisuais feitas por IA, a capacidade racional dos eleitores fica prejudicada.

A delimitação do que é “novo” também merece atenção. Ao excluir conteúdos antigos já em circulação, a resolução evita criar um bloqueio retroativo ou inviabilizar completamente o debate político digital. Ao mesmo tempo, concentra o foco regulatório na produção estratégica de material sintético para uso na reta final da disputa. Trata-se de um recorte que tenta equilibrar liberdade de expressão e prevenção de risco sistêmico, limitando a intervenção ao período de maior vulnerabilidade na integridade eleitoral.

O mecanismo, contudo, depende de aplicação efetiva. Conforme noticiado pela Folha de São Paulo, em caso de descumprimento a resolução prevê a remoção imediata do conteúdo ou a indisponibilidade do serviço, por iniciativa do provedor ou por ordem judicial, e admite responsabilização solidária quando não houver medidas imediatas para retirar do ar conteúdos sintéticos não rotulados ou que violem as demais vedações.

Como registrou o G1, a resposta prevista inclui remoção imediata ou indisponibilidade do serviço. Na implementação, essa combinação entre restrição temporal e sanção de efeito rápido tende a exigir das plataformas capacidade de reação em curto prazo, além de procedimentos claros e verificáveis.

Do ponto de vista operacional, essa restrição pode impor desafios técnicos significativos. Plataformas e provedores precisarão diferenciar, em tempo real, conteúdos sintéticos novos de reaproveitamento, montagens ou reedição. Nesse sentido, será necessário definir parâmetros objetivos para identificar modificação substancial de imagem, voz ou manifestação pública. Ao mesmo tempo, a medida sinaliza uma mudança na postura regulatória: o TSE se posiciona no sentido de que certos instrumentos de IA, ainda que lícitos em períodos ordinários, podem exigir limitação específica quando a estabilidade do processo eleitoral está mais exposta a possíveis manipulações estratégicas, como nas 72 horas que antecedem os turnos de votação e nas 24 horas posteriores ao encerramento da eleição. 

A rotulagem de IA e o dever de informar interação com sistemas automatizados

Fora do período restrito, o uso de IA em propaganda eleitoral não é proibido, mas fica condicionado a um dever de transparência qualificado. Todo material que empregue inteligência artificial para criar, substituir, omitir, mesclar ou alterar imagens e sons deve informar, de forma explícita, destacada e acessível, que o conteúdo foi produzido ou alterado por IA, com indicação da tecnologia utilizada. A mesma lógica se aplica a chatbots e avatares, já que o eleitor deve ser informado quando estiver interagindo com sistemas automatizados.

A regra também estabelece consequências. Propagandas que não informarem o uso de IA ou de chatbots podem ser retiradas do ar por iniciativa das plataformas ou por determinação judicial. Ao explicitar esse dever, o TSE enfrenta uma assimetria informacional persistente entre quem produz conteúdo sintético e o eleitor que o recebe sem indicação de fabricação ou manipulação.

Recomendação eleitoral por IA, deepfakes e violência política de gênero

A resolução também vedou que provedores de IA permitam, mesmo mediante solicitação expressa de usuários, a recomendação, o ranqueamento, a sugestão ou a priorização de candidatos, campanhas, partidos, federações ou coligações. Essa vedação abrange qualquer forma de favorecimento ou desfavorecimento político eleitoral, direta ou indireta, inclusive por respostas automatizadas. 

A finalidade é impedir interferência algorítmica no processo de formação da decisão de voto. Em um cenário em que sistemas de IA são cada vez mais usados como fonte de informação e orientação, inclusive sobre opções eleitorais, o limite busca preservar a autonomia do eleitor e reduzir riscos de vieses, opacidade e instrumentalização.

Para enfrentar a misoginia, o texto proibiu a criação ou a promoção de alterações em fotografias, vídeos ou registros audiovisuais de candidatas que contenham cenas de sexo, nudez ou pornografia. A medida vem como resposta a preocupações levadas ao Tribunal pela sociedade civil sobre o avanço de deepfakes de conteúdo sexual.

A resolução também vedou a criação de publicidade eleitoral que representa ato de violência política contra a mulher. Esse recorte tem importância prática porque ataques sexualizados e montagens podem ter efeitos duradouros, com assimetria de reparação, já que o dano reputacional frequentemente permanece mesmo quando o conteúdo é removido.

O pacote reafirmou e ampliou a obrigação de plataformas removerem perfis falsos, apócrifos ou automatizados quando houver prática reiterada de condutas capazes de comprometer o processo eleitoral. Além disso, provedores que identificarem conteúdos ilícitos ou receberem notificações de usuários devem adotar providências imediatas e eficazes para encerrar impulsionamento, monetização e acesso ao conteúdo. Esse ponto é decisivo para reduzir incentivos econômicos e limitar alcance enquanto a resposta institucional é acionada.

A virada para a prevenção

Se é verdade que o TSE já vinha, ao longo dos últimos dois ciclos eleitorais, criando mais obrigações para as plataformas. Por outro lado, ainda não havia um instrumento que lhe desse densidade. Esse instrumento passa a existir no art. 125-B, sugestão feita pelo CEDIS-IDP, uma vez que provedores terão que apresentar os chamados planos de conformidade que, nada mais são, um roteiro minimamente detalhado que presta contas antes, durante e depois do processo eleitoral acerca dos erros e acertos das medidas adotadas para contenção de danos.

Normalmente, nós vemos tais planos de conformidade serem apresentados em processos de fiscalização, quando já há um ilícito potencial em curso e de forma negociada em agências reguladoras. De forma muito inovadora, o TSE está posicionando tais planos de conformidade a partir de uma lógica mais de prevenção e não de correção de danos. Um instrumento accountability que nos permite mensurar a diligência e prudência de como as plataformas operam e o seu respectivo impacto na integridade do processo eleitoral.

Em entrevista ao G1, Bruno Bioni, codiretor da Data Privacy Brasil, explicou que esses planos funcionam como “um roteiro detalhado de prestação de contas, antes, durante e depois do processo eleitoral, sobre os erros e acertos das medidas adotadas para contenção de danos.” Bioni também destacou o caráter inédito do desenho adotado pelo TSE: “Normalmente, nós vemos tais planos de conformidade serem apresentados em processos de fiscalização, quando já há um ilícito em potencial e de forma negociada em agências reguladoras. De forma muito inovadora, o TSE está posicionando tais planos de conformidade a partir de uma lógica mais de prevenção e não de correção de danos.”

Na prática, isso torna a diligência das empresas mais mensurável, auditável e comparável ao longo do tempo, oferecendo um parâmetro mais robusto para a fiscalização e para o debate público.

Contribuição da Data Privacy Brasil no debate sobre propaganda eleitoral

Na audiência pública realizada pelo TSE, em fevereiro de 2026, a Data Privacy Brasil apresentou um conjunto de propostas detalhadas voltadas ao aprimoramento das regras sobre o uso de IA, partindo do entendimento de que os danos gerados por sistemas de IA podem ser irreversíveis, o que exige uma arquitetura regulatória baseada em evidências e à redução de riscos.

Entre as propostas apresentadas, destacou-se a adoção do princípio desegurança desde a concepção, com relatórios periódicos sobre IA e métricas de suspensões, mitigação e ajustes em sistemas de recomendação e moderação, além de transparência reforçada por versões públicas desses relatórios e credenciamento de pesquisadores e jornalistas para auditoria independente. A organização também propôs regulação do microdirecionamento político por meio de relatórios de impacto à proteção de dados, alinhando a regulação eleitoral à lógica da LGPD diante do uso intensivo de dados e técnicas avançadas. No mesmo sentido, foram defendidas iniciativas proativas de partidos e campanhas, com relatórios de alto risco e comunicação ao TSE e à ANPD, além de programas de governança de privacidade e uso responsável de IA nas estruturas partidárias.

A Data também apresentou contribuições à minuta de Propaganda Eleitoral da Resolução TSE nº 23.732/2024, defendendo a adoção de critérios normativos mais objetivos de salvaguardas regulatórias, com objetivo de preservar, simultaneamente, a integridade do processo eleitoral, a isonomia entre candidaturas, partidos e demais atores políticos, e o exercício legítimo da liberdade de expressão.

O desafio para 2026: implementar com transparência, proporcionalidade e capacidade de fiscalização

As regras aprovadas pelo TSE reconhecem que a integridade eleitoral, no contexto da IA, não será protegida apenas por declarações de intenção. Ela depende de arquitetura regulatória, medidas preventivas, critérios executáveis e capacidade de fiscalização.

A previsão é que o texto final das resoluções seja publicado nos próximos dias. A efetividade da restrição temporal exigirá clareza sobre o que é “conteúdo novo” e como lidar com reedições e recontextualizações. A transparência precisará ser compatível com acessibilidade e linguagem compreensível para o eleitor comum. E os planos de conformidade só terão utilidade pública se vierem acompanhados de métricas abertas, versões públicas e mecanismos independentes de escrutínio.

Em 2026, a democracia não disputará apenas narrativas. Disputará também infraestruturas. E é por isso que regras sobre IA, tempo e prestação de contas serão decisivas para que o debate eleitoral se desenvolva com liberdade, sem abrir mão da proteção contra manipulação, assimetria e dano irreparável.

Sobre o uso da IA nas eleições para além da propaganda eleitoral

Desde 2024, a Data desenvolve, em parceria com o Aláfia Lab, o Observatório de IA nas eleições, uma iniciativa dedicada ao monitoramento contínuo do uso da IA no contexto eleitoral brasileiro.

Por meio do Observatório, buscamos contribuir para que o debate sobre IA nas eleições seja conduzido a partir de dados verificáveis, fortalecendo a proteção e autonomia decisória do eleitorado e ampliando a participação da sociedade civil qualificada na agenda de governança digital.

Você pode seguir e acompanhar mais sobre esse projeto na página do Observatório IA nas Eleições.

Veja também

Veja Também