Garcia Pereira Advogados Associados

Recente reportagem da Folha de S.Paulo, cujo título é “IAs tomam lado em temas eleitorais e defendem teses contraditórias para ‘bajular’ usuários, diz levantamento”, mostra mais um dos grandes desafios a serem enfrentados nas próximas eleições.

Com efeito, a Resolução TSE 23.610/2019, alterada recentemente pela Resolução TSE 23.755/2026, deixa claro que é vedado aos provedores de aplicação que ofertem sistemas de inteligência artificial ou tecnologia equivalente, ainda que solicitados pelos usuários, (i) ranquear, recomendar, sugerir ou priorizar candidatos, campanhas, partidos políticos, federações ou coligações, assim como (ii) emitir opiniões, indicar preferências eleitorais recomendar voto ou realizar qualquer forma de favorecimento ou desfavorecimento político-eleitoral, de maneira direta ou indireta, inclusive por meio de respostas automatizadas.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Trata-se de importante regulamentação do atual fluxo informacional, evitando que os sistemas de inteligência artificial generativa possam interferir na formação da opinião de eleitores ou mesmo manipulá-los, assim como possam fazer propaganda eleitoral disfarçada.

Entretanto, o que a pesquisa retratada na reportagem mostra é que os modelos de inteligência artificial generativa testados – aí incluídos os mais utilizados, como ChatGPT, Claude e Gemini, dentre outros – contrariam as regras do TSE e tomam posição em temas eleitorais, chegando inclusive a defender teses contraditórias para bajular usuários.

Tais resultados podem não ser intencionais, decorrendo do fato de que tais sistemas acabam adaptando suas respostas ao perfil e à posição do usuário, a fim de evitar confrontos diretos. Ocorre que, ao assim fazer, tendem a reforçar a opinião do usuário, até porque, quanto mais este insiste em um determinado ponto de vista, mais a inteligência artificial tende a validar tal ponto ou pelo menos suavizar discordâncias. Cria-se, assim, um verdadeiro viés de confirmação automatizado, com grande risco de impacto nas decisões eleitorais.

Veja-se que há muito que já se discute o poder que redes sociais ou buscadores como o Google teriam na influência de eleitores, diante da possibilidade de enviesamentos e direcionamentos indevidos na filtragem e ranqueamento dos conteúdos sobre candidatos e partidos que são apresentados aos eleitores. A inteligência artificial generativa cria uma camada adicional de problema, pois a capacidade de influência e manipulação é muito maior diante da interatividade com o usuário e da possibilidade de respostas diretas às perguntas realizadas.

Logo, partindo-se da premissa de que os sistemas de inteligência artificial generativa não são neutros, eles podem interagir estrategicamente com os usuários, podendo influenciar, persuadir ou mesmo manipular opiniões políticas.

Tem-se aí um preocupante desdobramento do poder crescente que sistemas de inteligência artificial generativa têm não só sobre o controle das narrativas, mas até mesmo sobre o controle da linguagem, como já tive oportunidade de explorar em coluna anterior[1]. Embora ali a minha preocupação fosse com as novas fronteiras do poder econômico que daí decorreriam, é inequívoco que a pesquisa sob exame mostra também importantes fronteiras de poder político.

Sob vários aspectos, estamos diante de uma nova forma de poder privado que se espraia sobre a sociedade e a política, com reflexos diretos sobre a própria democracia, uma vez que atinge como a opinião política é formada. Longe de serem apenas ferramentas de comunicação, tais sistemas de inteligência artificial podem ser vistos como verdadeiras infraestruturas cognitivas privadas, que podem influenciar todos os tipos de decisões dos indivíduos, incluindo as políticas.

Consequentemente, se Herman e Chomsky já se preocupavam com a manufatura do consenso decorrente da atuação da grande mídia[2], a inteligência artificial generativa apresenta diversas outras formas de criar artificialmente consensos.

Confesso que, ao ler a reportagem, me lembrei muito do novo – e excelente – livro de Katharina Pistor[3], ao ressaltar como o capitalismo se organiza como regime jurídico que permite a certos atores privados exercerem poder sem accountability pública.

Isso porque a inteligência artificial generativa amplia consideravelmente esse fenômeno, passando a influenciar diretamente no resultado de eleições sem qualquer tipo de transparência, controle ou responsabilidade. Institui-se um verdadeiro governo privado sobre a esfera pública, inviabilizando a pluralidade de ideias e o confronto argumentativo que são fundamentais para a democracia.

A questão é ainda mais preocupante porque, diferentemente da propaganda eleitoral, não há aqui uma mensagem única ou emissores identificáveis; tampouco há o reconhecimento do caráter político das interações com os sistemas de inteligência artificial generativa. Eles podem, ao invés do convencimento direto, fazer algo ainda mais sutil e eficaz por meio da interação contínua, priorizando e individualizando conteúdos, ajustando a linguagem, suavizando discordâncias ou validando preferências dos usuários.

Ao assim fazer, a inteligência artificial potencializa os problemas do mercado de ideias[4] e da sua mediação por plataformas privadas que moldam e influenciam opiniões e comportamentos sem serem tratadas como atores políticos e sem qualquer tipo de responsabilidade.

Por mais que isso gere desafios regulatórios, a atual disciplina do TSE é muito clara no sentido de que a inteligência artificial não pode opinar ou se posicionar diante de matérias eleitorais. Entretanto, a pesquisa mostra que tais regras têm sido descumpridas diante de características supostamente inerentes aos sistemas de inteligência artificial generativa.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Abre-se espaço, portanto, para imensos riscos democráticos, até diante da assimetria informacional extrema dos usuários, que tendem a confiar nos resultados dos modelos, sem saber como as respostas são geradas, que critérios foram usados e que vieses podem estar presentes.

Trata-se, assim, de mais um assunto que precisa ser resolvido com urgência, especialmente no caso brasileiro, diante da proximidade das eleições. Mais do que isso, o que está em risco é a fragmentação e até mesmo a erosão do espaço público, pois, se cada usuário continua preso no ambiente informacional próprio, sem margem para dúvida, confronto e deliberação, tem-se um cenário praticamente inviável para a democracia.


[1] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/nova-fronteira-do-poder-economico-o-controle-da-linguagem

[2] HERMAN, Edward; CHOMSKY, Noah. Manufacturing Consent, Pantheon, 1988.

[3] PISTOR, Katharina. The Law of Capitalism and How to Transform It, Yale University Press, 2025.

[4] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/existe-um-mercado-de-ideias