Começou em 19 de janeiro o prazo para que a sociedade civil apresente sugestões às minutas de resoluções que orientarão as eleições 2026. Embora esse processo costume receber atenção limitada fora dos círculos especializados, trata-se de uma etapa decisiva do calendário eleitoral: é nesse momento que se definem regras capazes de moldar o debate público, a atuação das plataformas digitais e, em última instância, a própria liberdade de participação política no país. Entre os dias 3 e 5 de fevereiro, o Tribunal Superior Eleitoral (TSE) realizará audiências públicas para discutir os textos propostos — uma oportunidade que merece atenção redobrada.
No dia 5, em especial, o foco recairá sobre a propaganda eleitoral. A minuta em debate altera a Resolução 23.610, de 2019, que disciplina a propaganda política no Brasil e que já passou por mudanças recentes.
O texto original foi relatado pelo então vice-presidente do TSE, ministro Luís Roberto Barroso, durante a presidência da ministra Rosa Weber, e foi atualizado em 2024 sob a relatoria da ministra Cármen Lúcia, então vice-presidente, na gestão do ministro Alexandre de Moraes.
Agora, a nova minuta está sob a relatoria do ministro Nunes Marques, já na presidência de Cármen Lúcia. O percurso da norma revela o esforço contínuo da Justiça Eleitoral para acompanhar as transformações do ambiente informacional, mas também os riscos de cristalizar soluções que rapidamente se tornam defasadas.
Embora a estrutura geral da resolução permaneça inalterada, a minuta atualmente em consulta propõe diversas mudanças pontuais. Entre elas, um ponto se destaca positivamente do ponto de vista da liberdade de expressão: o novo § 3º do art. 36 da Resolução 23.610, que restringe a remoção de perfis aos casos de usuários comprovadamente falsos, perfis automatizados ou conteúdos voltados à prática de crimes. A alteração reduz margens interpretativas excessivamente amplas e contribui para evitar remoções indevidas ou censura desproporcional.
Por outro lado, a minuta mantém — e em alguns pontos reforça — exigências que impõem desafios técnicos significativos às plataformas digitais. O § 3º-A do art. 29, por exemplo, determina a indicação visível do valor pago pelo impulsionamento de conteúdo eleitoral.
A dificuldade é estrutural: a propaganda digital opera, em sua maioria, por sistemas de leilão em tempo real, nos quais não existe preço fixo, mas valores definidos algoritmicamente em frações de segundo, conforme audiência, concorrência e contexto. Exigir a exibição de um “valor pago” pode ser, na prática, de complexa ou mesmo inviável aplicação.
A participação social seria fundamental para calibrar esses pontos sensíveis. Ainda assim, de forma discreta, o sistema de consulta pública do TSE passou, neste ano, a limitar as contribuições às alterações propostas pela relatoria atual. O efeito prático é a perenização de dispositivos introduzidos em resoluções anteriores.
Na prática, é possível comentar a minuta relatada pelo ministro Nunes Marques, mas o sistema permanece fechado para contribuições relativas às alterações introduzidas pela Resolução 23.732/2024, sob a relatoria de Cármen Lúcia. É como se se afirmasse que essas regras já teriam sido testadas nas eleições municipais e, portanto, não caberia mais discuti-las. Curiosamente, boa parte das mudanças conduzidas pela ex-relatora sequer foram objeto de debate público – diversos artigos foram introduzidos após a consulta pública, sem nenhuma participação social.
Ainda que as alterações introduzidas em 2024 não fossem controversas — e elas são —, a velocidade da evolução tecnológica e a forma como a sociedade reage a essas inovações tornam esse raciocínio insuficiente. Só esse fator já seria suficiente para justificar a reabertura do debate público, sob pena de se cristalizarem soluções pensadas para um contexto que já não existe.
O tratamento dado à inteligência artificial ilustra bem esse problema. O primeiro ponto é o dever de rotulagem. O art. 9º-B impõe que conteúdos fabricados ou manipulados sejam identificados de modo explícito, destacado e acessível, com indicação da tecnologia utilizada.
A diretriz é ampla e alcança conteúdos sintéticos em geral, sem distinguir contexto ou finalidade. A preocupação com transparência é compreensível, mas a exigência, quando aplicada de forma inflexível, tende ao excesso. Conteúdos sintéticos tornaram-se parte da cultura digital contemporânea, usados cotidianamente para humor, sátira e crítica política.
Tratar a ausência de rótulo, por si só, como fundamento para remoção imediata de conteúdos ou para a caracterização de abuso de poder político pode ser desproporcional. Uma calibragem mais adequada seria condicionar a intervenção estatal — e o dever de remoção — à efetiva indução do eleitor ao erro.
Até mesmo no caso dos deepfakes, em que o risco de engano é mais evidente, a experiência recente demonstra a necessidade de critérios mais claros. Estudo do Sivis, ao analisar 37 decisões judiciais sobre o tema nas eleições municipais de 2024, identificou forte inconsistência na aplicação da norma.
Houve casos em que manipulações digitais simples — inclusive cheapfakes e edições de baixo grau de sofisticação — foram enquadradas como deepfakes proibidos, resultando em ordens de remoção imediata, enquanto outras decisões exigiram padrões técnicos muito mais elevados para caracterizar a infração. Essa falta de uniformidade ampliou a insegurança jurídica e reforça a necessidade de calibrar a regulação a partir do risco efetivo de engano do eleitor, e não da mera utilização de técnicas de manipulação digital.
Outro ponto está no § 3º do art. 9º-B, que impõe uma vedação absoluta à simulação de interlocução com pessoas reais, atingindo diretamente o uso de avatares e chatbots automatizados no contexto eleitoral. Trata-se de uma medida excessiva, que desconsidera usos legítimos e socialmente úteis dessas ferramentas.
Avatares e chatbots podem ser empregados para ampliar o acesso à informação, explicar propostas e políticas públicas em linguagem simples e reduzir barreiras de custo e escala nas campanhas. Desde que não enganem o eleitor, esses recursos podem contribuir para um processo eleitoral mais acessível, plural e participativo.
Em outra dimensão do uso de inteligência artificial, a resolução de 2024 também avança sobre os sistemas de recomendação das plataformas digitais. O art. 28, § 1º-A determina que plataformas que utilizam esses sistemas excluam, de seus resultados recomendados, os perfis, canais e conteúdos informados à Justiça Eleitoral, ressalvadas as hipóteses de impulsionamento pago autorizadas em lei.
O problema é técnico e estrutural: em diversas plataformas, a recomendação não é um recurso acessório, mas o próprio modo de funcionamento do serviço. Nesses ambientes, o conteúdo não circula porque o usuário segue determinado perfil, mas porque algoritmos identificam, em tempo real, o que pode ser relevante para ele. Retirar a recomendação equivale, na prática, a inviabilizar o uso normal da plataforma para o debate político.
É válido lembrar que esse tipo de exclusão não afeta apenas os emissores diretamente alcançados pela medida, mas repercute sobre todo o ecossistema informacional da plataforma, reduzindo a diversidade de fontes e pontos de vista acessíveis aos usuários. Ao limitar a circulação algorítmica de conteúdos políticos, corre-se o risco de empobrecer o debate público e de restringir o direito dos cidadãos de receber informações relevantes para a formação de sua opinião política.
Por fim, o ponto mais problemático da resolução de 2024 permanece em vigor: o art. 9º-E, que prevê a responsabilidade solidária das plataformas pela não remoção imediata de conteúdos eleitorais considerados de risco. O dispositivo tensiona o regime do Marco Civil da Internet – reformado de forma capenga pelo STF –incentiva remoções preventivas e desloca das autoridades judiciais para as plataformas decisões sensíveis sobre a licitude de conteúdos.
Embora pouco aplicado em 2024, sua mera existência gera insegurança jurídica e risco de indisponibilização de conteúdos legítimos— efeito que já levou diversas plataformas a proibirem propaganda eleitoral em suas redes.
Ao impor exigências incompatíveis com a arquitetura técnica dos serviços digitais, a responsabilidade solidária acabou afastando plataformas do processo eleitoral. Em vez de fortalecer a transparência e o debate democrático, contribuiu para a invisibilização de discursos em espaços onde ele já ocorre de forma legítima e cotidiana, empobrecendo o espaço público digital em ano eleitoral.
O desafio colocado ao TSE não é escolher entre regulação e liberdade, mas calibrar regras à altura da complexidade do ecossistema digital contemporâneo. Esse esforço não pode se limitar às mudanças pontuais hoje em consulta, deixando imunes à crítica dispositivos introduzidos na resolução de 2024.
Normas excessivamente rígidas, pouco sensíveis à arquitetura técnica das plataformas e às práticas culturais consolidadas, tendem a produzir efeitos contraproducentes: afastam atores relevantes do debate público, ampliam inseguranças jurídicas e incentivam formas privadas de censura.
Reabrir o debate, inclusive sobre escolhas regulatórias recentes, ouvir a sociedade e ajustar os instrumentos normativos não é sinal de fragilidade institucional, mas condição para que a Justiça Eleitoral continue garantindo eleições livres, competitivas e informadas em um ambiente informacional em constante transformação.

