A narrativa dominante sobre inteligência artificial em política brasileira em 2026 é negativa: deepfake, desinformação, ataque coordenado, robôs simulando candidato. E com razão — o TSE teve que criar uma resolução específica (23.755/2026) só para conter os usos antiéticos. Multas de R$ 30.000 por peça e possibilidade de cassação mostraram que a linha é dura e está sendo fiscalizada.
Mas essa narrativa ignora algo crucial: IA também tem usos legítimos, legais e extraordinariamente eficazes em campanhas políticas sérias. Campanhas profissionais em 2026 já estão usando inteligência artificial para análise territorial granular, segmentação de eleitores, produção de conteúdo, otimização de ads, atendimento automatizado identificado, e dezenas de outras aplicações que não violam nenhuma regra do TSE — pelo contrário, aumentam a capacidade de executar estratégia dentro das regras com muito mais precisão.
Este artigo mapeia os 12 casos de uso legítimos de IA em campanha política no Brasil em 2026, com base na Resolução 23.755/2026 e na prática das campanhas que estão operando na fronteira entre potência tecnológica e compliance. Alguns desses casos vão surpreender: são aplicações que parecem avançadas mas, bem executadas, ficam totalmente dentro do que a lei permite — e aumentam significativamente a probabilidade de vitória em eleições decididas por margens estreitas.
A linha divisória: o que a Resolução 23.755/2026 realmente proíbe
Antes de entrar nos usos permitidos, vale ter clareza do que é efetivamente vedado. A Resolução TSE 23.755/2026 estabelece três proibições centrais:
1. Deepfake para prejudicar ou favorecer candidatura. Criação ou uso de vídeo, áudio ou imagem que reproduza falsamente voz ou rosto de pessoa real em contexto que não ocorreu, com objetivo eleitoral. É proibição absoluta, sem exceção — mesmo em tom de sátira ou humor.
2. Robôs simulando contato direto com candidato sem identificação. Sistemas automatizados (chatbots, respondedores) que se passam por humano ou pelo próprio candidato, sem aviso claro ao eleitor de que se trata de IA, são proibidos. A regra vale mesmo quando a IA foi treinada com a personalidade do próprio candidato.
3. Conteúdo sintético nas 72 horas antes da votação. Publicação, republicação ou impulsionamento de conteúdo gerado ou significativamente alterado por IA nas 72 horas que antecedem o pleito é vedado — independentemente do conteúdo ser favorável ou desfavorável a candidato.
Fora dessas três proibições, a resolução exige apenas uma coisa: identificação clara quando houver uso significativo de IA. Um aviso visível, legível, acessível, que permita ao eleitor saber que aquele conteúdo foi gerado ou alterado por inteligência artificial. Essa identificação pode ser em texto, em áudio, em marca d'água, em metadados — mas precisa estar lá de forma não-ambígua.
O que está permitido, portanto, é um universo muito mais amplo do que candidatos tradicionais percebem. Vamos aos 12 casos concretos.
Caso 1-3: Análise de dados e segmentação territorial
Caso 1: Análise preditiva de tendência por zona eleitoral. Modelos de IA treinados em dados históricos do TSE (2006-2024) conseguem projetar tendência de voto por zona eleitoral com precisão superior à intuição política tradicional. Campanhas profissionais usam esses modelos para priorizar onde investir tempo e recursos — cabe em qualquer estratégia e não envolve nenhum dos três pontos vedados pela Resolução 23.755.
Caso 2: Classificação ideológica de municípios. IA pode analisar padrões históricos de voto de 5.570 municípios brasileiros e classificá-los em perfis ideológicos consistentes — algo que humanos fazem mal e inconsistentemente. Isso permite que o mesmo candidato use mensagens calibradas para cada tipo de município, em vez de discurso genérico nacional. O Vottus usa esse tipo de classificação como ferramenta operacional padrão.
Caso 3: Detecção de votos órfãos. Modelos de IA identificam concentrações regionais onde candidatos anteriores saíram de cena (morte, migração partidária, desistência) deixando bases eleitorais disponíveis. Campanhas novas podem usar essa análise para identificar onde há voto disputável sem concorrência forte — oportunidade invisível a olho nu, mas clara nos dados.
Nenhum desses três casos envolve criação de conteúdo sintético, simulação humana ou nada que se aproxime do que o TSE proibiu. São usos analíticos internos da campanha, feitos sobre dados públicos. Compliance é trivial: documentar que ferramenta foi usada e para que finalidade.
Caso 4-6: Produção de conteúdo com identificação
Caso 4: Geração de roteiros e textos preliminares. IA pode produzir primeiros rascunhos de discursos, textos de redes sociais, legendas, newsletter — que depois são revisados e finalizados por humanos da equipe de comunicação. O conteúdo final, que chega ao eleitor, é predominantemente humano. Nesse caso, não há exigência legal de aviso de IA — porque a peça final é humana, só o rascunho foi assistido por máquina.
Caso 5: Edição e otimização de vídeos. Ferramentas de IA para remoção de ruído de áudio, correção de cor, legenda automática, corte de trechos, aumento de resolução — são amplamente usadas em produção audiovisual moderna, incluindo campanhas políticas. Não há exigência de aviso porque não há alteração substantiva do conteúdo, apenas qualidade técnica. A regra só se aplica quando a IA cria ou altera significativamente a mensagem, não quando apenas melhora a produção.
Caso 6: Criação de peças gráficas com aviso. Imagens geradas por IA para uso em campanha (cartazes, posts, ilustrações de dados) são permitidas, desde que contenham identificação visível de que foram geradas por IA. Pode ser pequeno texto no rodapé ("Imagem gerada por IA"), marca d'água discreta, ou indicação nos metadados. Campanhas em 2026 estão usando IA para gerar ilustrações temáticas em volume que antes seria impraticável — economia real em design gráfico com compliance simples.
Caso 7-9: Atendimento, interação e suporte
Caso 7: Chatbot identificado em site e WhatsApp. Chatbot que responde perguntas frequentes sobre a campanha, agenda de eventos, propostas programáticas — é plenamente legal, desde que (a) identificado claramente como sistema automatizado logo no início da interação, (b) não simule ser o próprio candidato, e (c) não tome decisões que caberiam a humano (ex: prometer benefícios a eleitor individualmente). Economia de equipe de atendimento significativa, com experiência de usuário moderna.
Caso 8: Triagem e classificação de mensagens recebidas. IA pode analisar o volume de mensagens que uma campanha recebe (e-mail, WhatsApp, DM) e classificá-las por tipo, urgência, sentimento, tema. Isso permite que a equipe humana priorize o que é realmente importante e responda com mais qualidade. Não há contato automatizado com eleitor — apenas organização interna de fila de atendimento.
Caso 9: Transcrição automatizada de reuniões e entrevistas. Ferramentas de IA que transcrevem reuniões do candidato, entrevistas à imprensa, depoimentos — permitem que a equipe de comunicação tenha registro completo do que foi dito e consiga extrair rapidamente trechos para divulgação. Uso interno sem exigência de aviso.
Caso 10-12: Otimização de campanha e compliance
Caso 10: Otimização de alocação orçamentária. Modelos de IA podem analisar onde cada R$ 1.000 investido em campanha tem maior retorno em votos — considerando variáveis como densidade eleitoral, perfil demográfico, tradição política local, concorrência. Em 2026, com Fundo Eleitoral recorde de R$ 4,96 bilhões distribuído entre candidatos cada vez mais numerosos, essa otimização é diferença entre campanha eficiente e desperdício milionário.
Caso 11: Monitoramento de conteúdo atribuído à campanha. IA pode varrer continuamente redes sociais, grupos públicos de WhatsApp, canais do Telegram, em busca de conteúdo atribuído à campanha (inclusive deepfakes feitos por adversários). Isso permite detecção rápida e resposta oportuna — desmentir publicamente, requerer remoção, preservar prova para processo. É defesa preventiva em um ambiente onde o ataque digital é velocidade, e quem demora 48 horas para reagir já perdeu.
Caso 12: Auxílio em prestação de contas eleitoral. Ferramentas de IA ajudam equipes a organizar despesas, classificar categorias corretamente, detectar inconsistências antes que virem glosa na prestação de contas final. Com as regras cada vez mais detalhadas e penalidades altas, esse uso reduz risco de problemas com o TSE após o pleito.
Os 12 casos acima cobrem praticamente todos os fluxos operacionais de uma campanha moderna. Se bem integrados, IA pode aumentar eficiência da equipe em 30% a 50% — permitindo que um candidato com orçamento médio opere com capacidade que antes só campanhas top tinham.
O que campanhas profissionais estão fazendo diferente
Observando campanhas que usam IA de forma profissional e compliant em 2026, algumas práticas se repetem:
1. Governança interna documentada. Existe documento formal definindo quais ferramentas de IA a campanha usa, para que finalidade cada uma, quem tem acesso, como é feita a revisão humana. Se houver questionamento, a campanha consegue demonstrar rastreabilidade — que é a principal defesa em processo eleitoral moderno.
2. Revisão humana obrigatória em conteúdo público. Nenhuma peça gerada por IA vai ao público sem passar por revisão humana identificada (alguém da equipe se responsabilizando). Isso garante qualidade, evita alucinações da IA, e cria cadeia de accountability que protege juridicamente.
3. Aviso de IA onde a lei exige. Conteúdo onde IA gerou elementos substantivos (imagem, voz, texto central) tem identificação clara. Pode ser pequena, discreta, mas está lá. Campanhas que tentam esconder o uso de IA acabam queimando muito mais em caso de descoberta do que se tivessem sido transparentes desde o início.
4. Separação estrita entre IA analítica e IA criativa. Uso de IA para análise de dados (permitido sem exigências especiais) é tratado como ferramenta operacional normal. Uso de IA para criação de conteúdo (que exige aviso e revisão) tem processo separado, com controles extras. Misturar os dois é receita para erros de compliance.
5. Treinamento da equipe. Todo membro da campanha — não apenas o pessoal de tecnologia — conhece o básico do que pode e o que não pode com IA. Voluntário bem-intencionado que compartilha deepfake achando engraçado pode processar o candidato inteiro.
IA aplicada à inteligência eleitoral no Vottus
A plataforma Vottus integra múltiplas aplicações de IA em casos de uso compliant: análise preditiva por zona eleitoral, classificação ideológica de 5.570 municípios brasileiros, identificação de votos órfãos, segmentação de perfil de eleitor, sugestão de mensagens calibradas por território, e monitoramento de imagem pública do candidato. Todas as aplicações seguem o princípio de IA analítica (análise de dados públicos, sugestão de estratégia) e não IA criativa sem revisão humana — o que significa que os outputs do Vottus são ferramentas de decisão para a equipe da campanha, não conteúdo pronto para publicação automática. Essa arquitetura garante que campanhas que usam o Vottus operem na fronteira da tecnologia disponível sem expor-se a riscos de compliance.
Conclusão
A Resolução 23.755/2026 não matou a IA em política brasileira. Matou apenas os usos desonestos: deepfake, robôs simulando candidato, conteúdo sintético enganoso nas vésperas do voto. O que sobra — e é muito — é um universo inteiro de aplicações legítimas que separam campanhas profissionais das amadoras. Em 2026, não usar IA legítima é abrir mão de vantagem competitiva que outros candidatos já estão explorando.
O risco não é usar IA. O risco é usar mal. Campanhas que tratam IA como ferramenta séria — com governança, revisão, aviso onde devido, e separação entre analítica e criativa — ganham eficiência que compensa investimentos de outros tipos. Campanhas que tratam IA como atalho para enganar eleitor perdem processo no TSE. A tecnologia é a mesma. A diferença está em quem pilota.
Integre IA analítica compliant na sua estratégia territorial com o Vottus
Começar agora →Perguntas frequentes
Posso usar ChatGPT para escrever textos da minha campanha?
Sim, como ferramenta de rascunho. A prática recomendada é: (1) usar a IA para gerar primeira versão, (2) equipe humana revisar, ajustar, reescrever parcialmente, (3) a peça final que vai ao público é substancialmente humana. Nesse caso, não há exigência legal de aviso de IA — porque a versão publicada não é predominantemente sintética. A regra de aviso se aplica quando o conteúdo tem elementos substantivos gerados por IA sem revisão significativa, especialmente imagem, voz ou vídeo.
Chatbot no site da campanha precisa avisar que é IA?
Sim, obrigatoriamente. A Resolução 23.755/2026 exige que qualquer sistema automatizado que interaja com eleitor se identifique claramente como tal logo no início da interação. Mensagem típica: 'Olá! Sou o assistente virtual da campanha [X]. Posso ajudar com perguntas sobre agenda, propostas e eventos. Para falar com a equipe humana, digite ATENDIMENTO.' O chatbot não pode se passar pelo candidato nem por humano. Não pode prometer benefícios individuais ao eleitor. Dentro dessas regras, é ferramenta útil e permitida.
IA pode gerar imagens para a minha campanha?
Sim, com identificação. Imagens geradas por IA (ilustrações, gráficos estilizados, cenários ficcionais) podem ser usadas em propaganda desde que contenham aviso visível de que foram geradas por inteligência artificial. Pode ser texto pequeno no rodapé da imagem, marca d'água, ou indicação na legenda do post. Não é permitido gerar imagem realista de pessoa real (candidato adversário, eleitor específico, cena ficcional com figura pública) — isso cai na proibição de deepfake, mesmo que a pessoa retratada não seja prejudicada diretamente.
Meu adversário está usando IA de forma irregular. O que faço?
Três ações em paralelo: (1) preservar prova — salvar links, fazer prints com data/hora, guardar arquivos originais quando possível; (2) fazer denúncia formal ao TSE pelo sistema e-Justiça Eleitoral, anexando as provas e descrevendo a irregularidade; (3) considerar comunicado público desmentindo ou esclarecendo, especialmente se o conteúdo está ganhando tração. A velocidade importa — deepfake que circula 48 horas sem resposta gera dano permanente mesmo após ser removido. Ter equipe preparada para esse tipo de resposta faz diferença.
Posso usar IA nas 72 horas antes da eleição?
Para análise interna de dados, sim — não há proibição para uso analítico. Para publicação de conteúdo gerado ou significativamente alterado por IA, não: é vedado publicar, republicar ou impulsionar conteúdo sintético nas 72 horas que antecedem a votação. Essa janela crítica é monitorada pelo TSE com rigor maior. Na prática, campanhas preparam todo conteúdo de encerramento com antecedência, sem IA criativa, para evitar qualquer dúvida. IA analítica (análise de última hora para decisões estratégicas) permanece plenamente permitida.
Como o Vottus usa IA de forma compliant?
O Vottus usa IA exclusivamente em casos analíticos: análise preditiva de tendência por zona eleitoral, classificação ideológica de municípios, identificação de votos órfãos, segmentação de perfis de eleitor, sugestão de mensagens calibradas por território. Os outputs são relatórios, mapas, análises — ferramentas de decisão para a equipe da campanha. Não geramos deepfake, não simulamos candidato, não criamos conteúdo para publicação automática. A campanha usa nossas análises para decidir estratégia, e produz conteúdo separadamente com revisão humana. Essa arquitetura garante que campanhas clientes operem na fronteira tecnológica sem qualquer risco de compliance.