A nove meses das eleições de 2026, ao menos 100 dos 137 conteúdos sintéticos com conotação política identificados nas redes sociais circularam sem qualquer sinalização de que foram produzidos por inteligência artificial. Os dados são do novo relatório do Observatório IA nas Eleições, projeto da Data Privacy Brasil e do Aláfia Lab, apresentados por Matheus Soares, um dos coordenadores do projeto, em entrevista ao SBT News:

O número representa uma média de 1,5 casos por dia entre dezembro de 2025 e fevereiro de 2026 — um crescimento de 50% em relação à média diária registrada no ano anterior. Apenas 37 conteúdos (27%) indicaram o uso da tecnologia por meio de marca d’água, legenda ou texto na imagem.

A ausência de sinalização contraria diretamente uma das principais regras estabelecidas pelo Tribunal Superior Eleitoral (TSE) para a propaganda política de 2026: candidatos são obrigados a identificar qualquer conteúdo produzido com IA antes de publicá-lo. A obrigatoriedade vale a partir de 16 de agosto, quando começa oficialmente o período de campanha. O levantamento, porém, já registrou agentes políticos publicando material sintético sem a devida indicação antes mesmo dessa data.

Um terço das publicações mapeadas (34%) partiu de agentes políticos — 32 conteúdos publicados por parlamentares e pré-candidatos, e 15 por partidos.

“Os achados do observatório mostram que neste ano a IA já é uma ferramenta popular de comunicação para políticos e pré-candidatos, diferente de 2024, quando a tecnologia era utilizada de forma mais experimental e pontual”, afirma Matheus Soares. “Esse crescimento no uso também vem acompanhado de possíveis violações das resoluções do TSE.”

Quem são os alvos e quais eventos mobilizaram os conteúdos

Os conteúdos sintéticos mapeados se concentraram sobre figuras da política nacional e estrangeira, além de celebridades brasileiras usadas em contextos políticos. As manipulações giraram em torno de eventos com grande repercussão no período: os desfiles de escolas de samba foram o tema mais frequente (20 casos), seguidos por uma caminhada política rumo a Brasília (11 casos), a prisão de um ex-presidente da República (11), uma pré-candidatura à presidência (10) e o escândalo do Banco Master (9).

O deepfake — técnica que substitui ou altera rostos e vozes com IA para criar representações falsas — foi o recurso mais utilizado nesses casos.

Desinformação e violência política de gênero

Do total de conteúdos identificados, 45% foram classificados como desinformativos. Os demais circularam em contextos de sátira ou humor. Independentemente da classificação, mais da metade (62%) foi usada para expressar críticas ou ataques políticos.

Entre os casos mais graves estão o uso de IA para criar imagens sexualmente ofensivas de mulheres com mandato eletivo, sem consentimento, uma prática que o relatório enquadra como violência política de gênero. A resolução do TSE proíbe alterações sexuais em imagens de candidatas, mas a circulação desse tipo de conteúdo nas plataformas segue sem mecanismos de responsabilização efetivos.

“Embora ainda não sejam numerosos, os casos mostram que a IA generativa vem se sofisticando e ampliando a violência política e de gênero, inclusive com deepfakes. A resolução do TSE proibiu alterações sexuais em imagens de candidatas, mas é fundamental responsabilizar as plataformas pela circulação de conteúdos que atentem contra a integridade de mulheres e do processo eleitoral”, afirma Carla Rodrigues, cocoordenadora do Observatório e coordenadora de Plataformas e Mercados Digitais da Data Privacy Brasil.

Onde os conteúdos circulam

Mais da metade dos casos foi identificada no Instagram (55%), seguido por TikTok (20%) e X (11%). Facebook, YouTube e Kwai também registraram ocorrências em menor volume.

O relatório não cobre, com a mesma profundidade, os aplicativos de mensageria (WhatsApp e Telegram) onde a circulação de conteúdo sintético ocorre em canais privados e disparos em massa. Esse é um dos pontos cegos da regulação atual: as regras do TSE foram pensadas para publicações oficiais em plataformas abertas, e o rastreamento de conteúdo em ambientes fechados apresenta dificuldades técnicas e metodológicas sem solução regulatória clara.

Como denunciar

O TSE mantém canal oficial de denúncia de desinformação eleitoral. As plataformas digitais também dispõem de mecanismos próprios de reporte. A partir de 16 de agosto, passa a valer também a proibição do uso de IA nas 72 horas anteriores ao pleito e nas 24 horas posteriores.

Os casos foram levantados por coleta de dados em redes sociais a partir de termos e hashtags relacionados a política e inteligência artificial. A metodologia completa está disponível no site do Observatório IA nas Eleições, que também recebe colaborações de eleitores que se depararem com esse tipo de conteúdo.

Veja também

Veja Também