O ano mal acabou e o Brasil já aqueceu os motores para as eleições presidenciais de 2026. Mais uma vez, teremos uma corrida eleitoral marcada pela polarização – entre forças da direita e da esquerda – e, claro, por desinformação com o objetivo de atrapalhar o debate e, consequentemente, a integridade do pleito. Nesse caldo, acrescente um toque especial: as Inteligências Artificiais generativas cada vez mais acessíveis e capazes de produzir conteúdos multimídia hiperrrealistas sobre política, borrando os limites do que é fato e do que é mentira.

A questão da IA em contexto político não é nova. No ano passado, quando mais de 60 países realizaram eleições (inclusive o Brasil), o receio do impacto da tecnologia já era levantado por pesquisadores e organizações da sociedade civil em todo o mundo. Índia e Indonésia, por exemplo, foram laboratórios para uso de IA com objetivos de impulsionar ou auxiliar campanhas de candidatos, às vezes beirando o absurdo, como a utilização para telefonemas em massa e para ressuscitar políticos mortos.

No Brasil, receio parecido também tomou forma ao longo do ano passado, quando tivemos eleições municipais. Por aqui, uma resolução do Tribunal Superior Eleitoral (TSE) criou regras mínimas para o uso da tecnologia por campanhas políticas, levantando dúvidas inclusive se os candidatos iriam seguir ou não.

Tal contexto inspirou a criação do Observatório IA nas Eleições, projeto desenvolvido pelo Aláfia Lab e Data Privacy, que mapeou usos da tecnologia para criação de conteúdos eleitorais durante agosto e outubro de 2024 – um dos principais achados foram as deepfakes de candidatos (tanto em vídeo como em áudio) e as deepnudes focadas em candidatas mulheres (mais detalhes dos achados da época estão nesse relatório).

E neste ano, o observatório está de volta. Lançado recentemente, o projeto desenvolvido pelo Aláfia Lab e Data Privacy Brasil, já começou a mapear os conteúdos sintéticos de olho nas eleições do próximo ano. E não foram poucas peças encontradas: entre janeiro e novembro de 2025, já foram identificados mais de 280 casos de uso de inteligência artificial em publicações relacionadas à política nacional nas redes sociais Instagram, Facebook, TikTok e X, levantando a preocupação do impacto desses conteúdos na formação e funcionamento do debate público e da democracia num momento crítico, as eleições.

A enxurrada de IA no debate político

O número encontrado pelo observatório ilustra como a tecnologia tem sido amplamente usada no debate político, mesmo antes do início do ano eleitoral, explorando os principais acontecimentos políticos de 2025:

  • As tarifas e sanções aplicadas pelos Estados Unidos ao Brasil, conhecido como “tarifaço”, por exemplo, foram temas de mais de 40 publicações sintéticas identificadas pelo observatório. 
  • Já as investigações e julgamentos sobre a tentativa de golpe de Estado no Brasil, que envolvem Jair Bolsonaro e seus aliados serviram de substrato para mais de 35 conteúdos produzidos por IA.
  • Somente a prisão do ex-presidente no último dia 22 inspirou a produção de mais de 10 vídeos gerados por IA. 

Entre eles estão conteúdos satíricos – como deepfakes do ex-presidente fazendo cursos de soldador, em referência a sua tentativa de rompimento de tornozeleira eletrônica com ferro de soldar – que surfam no engajamento gerado pelo tema nas redes sociais.

Mas também foram identificados casos com potencial desinformativo, como vídeos hiperrealistas de manifestações em apoio ao ex-presidente, ou falsos depoimentos de apoiadores. Essa é a tendência da maioria (58%) dos conteúdos identificados pelo observatório até o momento.

O potencial desinformativo é agravado pela baixa adesão a mecanismos de sinalização de conteúdos sintéticos – menos de 35% dos casos identificados continham marcas d’água ou avisos sobre o uso de inteligência artificial.

Entre os principais alvos estão figuras proeminentes no debate político e que devem ocupar posições de destaque nas próximas eleições, como o presidente Lula (PT) – que teve sua imagem manipulada em ao menos 30 publicações – o ex-presidente Jair Bolsonaro (PL), com 26 casos, e o ministro Alexandre de Moraes.

Se por um lado os políticos são os maiores alvos, por outro eles não são os responsáveis diretos pela produção e disseminação desse conteúdo. A maior parte dos casos de uso de IA foi publicada por perfis ou páginas anônimas (85%). Apenas 10% foram publicados por partidos, sendo 20 pelo PT, 3 pelo PL, 2 pelo Cidadania, 1 pelo PSOL e 1 pelo PSDB e 4% por políticos, entre eles Eduardo Bolsonaro (3), Gustavo Gayer (2) Mário Frias (1), Guilherme Boulos (1), Eduardo Suplicy (1) e Rogério Correia (1).

Apesar de minoritário, os casos mostram que mesmo antes do ano eleitoral, partidos e candidatos já exploram a tecnologia para suas campanhas.

 

O que esperar para 2026?

As eleições de 2026 devem ocorrer em um ambiente informacional mais complexo, marcado pela presença crescente de conteúdos sintéticos e pela incorporação de ferramentas de IA na comunicação política. Isso tornou ainda mais importante acompanhar como a Justiça Eleitoral e o Congresso irão se posicionar ao longo de 2025. Há expectativa sobre possíveis atualizações das resoluções do Tribunal Superior Eleitoral. 

Em 2024, o TSE estabeleceu regras relevantes na Resolução n. 23.723 para a rotulação de conteúdos manipulados e para a responsabilização de campanhas que utilizam materiais enganosos. A dúvida agora é se essas regras serão mantidas, ampliadas e melhor definidas, como os conceitos de Deepfake, ou modificadas. Espera-se que as salvaguardas adotadas no último ciclo permaneçam; o ideal seria avançar para normas mais claras sobre conteúdos gerados por IA, especialmente em relação à identificação e ao uso responsável desse tipo de material. 

A tramitação do Projeto de Lei de Inteligência Artificial (PL 2.338/2023) também pode influenciar diretamente o contexto eleitoral. Se aprovado a tempo, o país passará a contar com princípios e obrigações mais definidos para o uso de sistemas de IA, o que pode fortalecer a capacidade institucional de enfrentar possíveis abusos. Ainda assim, a aplicação prática dessas regras dependerá de como o TSE irá integrá-las às normas eleitorais. 

Os resultados já observados pelo Observatório IA nas Eleições indicam que a circulação de conteúdos sintéticos deve aumentar nos próximos meses. Por isso, acompanhar o debate público, fortalecer a participação social e pressionar por medidas de transparência será fundamental para proteger a integridade das eleições de 2026. O próximo ciclo eleitoral será um teste importante para entender se o país conseguirá equilibrar inovação tecnológica, responsabilidade e democracia.

Veja também

Veja Também