SÃO PAULO, SP (FOLHAPRESS) - Organizações da sociedade civil, partidos e órgãos do governo apontaram para o TSE (Tribunal Superior Eleitoral) o que veem como lacunas na regulamentação do uso de inteligência artificial nas eleições deste ano e na ação de influenciadores.

Eles enviaram recomendações para a resolução de propaganda do TSE que será publicada, com as sugestões que forem acatadas, até 5 de março. A Folha teve acesso a dez dessas contribuições.

Neste ano, a expectativa é que o maior desafio sejam redes de influenciadores, perfis falsos e alugados impulsionando propaganda negativa ou positiva às margens da legislação eleitoral e o uso de IA, incluindo chatbots e deepfake, na tentativa de influenciar o pleito de forma ilegítima.

Uma das maiores preocupações é um parágrafo incluído pelo relator, ministro Kassio Nunes Marques, na minuta da resolução do TSE. O parágrafo único do artigo 3-B determina que não caracteriza propaganda eleitoral antecipada negativa a crítica à administração pública, realizada por pessoa natural, mesmo que haja contratação de impulsionamento.

Pela lei atual, apenas partidos e candidatos podem pagar por impulsionamento, contratando diretamente do provedor de aplicação, e somente de propaganda positiva. Os gastos têm que ser declarados à Justiça Eleitoral.

Em suas recomendações, o DataPrivacyBR afirma que o parágrafo pode abrir margem para o uso do impulsionamento pago como instrumento indireto de propaganda eleitoral antecipada negativa. A organização cita como exemplos os campeonatos de cortes de vídeos do então candidato à Prefeitura de São Paulo Pablo Marçal (PRTB), em 2024, e dos influenciadores que fizeram propaganda negativa contra o Banco Central no caso do Banco Master.

Nas sugestões enviadas ao TSE, o NetLab da UFRJ e o PT foram na mesma linha. Já o PL celebrou o parágrafo, dizendo que ele "fortalece a liberdade de cri?tica governamental e reduz risco de censura indireta na pre?-campanha".

Grande parte das entidades critica a falta de regulamentação para o uso de IA generativa na campanha.

Segundo a Artigo 19, a resoluc?a?o contempla as "deep fakes", com vedac?o?es e obrigac?o?es de rotulagem. Mas não regulamenta "as informac?o?es geradas por esses modelos quando utilizados pelo eleitor como fonte de informac?a?o de conteu?do poli?tico-eleitoral". "Te?m se tornado frequentes relatos de informac?o?es distorcidas, incorretas, ficti?cias ou imprecisas acerca de candidaturas e partidos."

O Netlab e o PT pedem a proibição de chatbots recomendarem candidaturas a usuários.

"Hoje não existe uma vedação clara ao uso de chatbots para orientar eleitores, apesar de já sabermos que essas ferramentas influenciam percepção, opinião e comportamento", diz Andressa Michelotti, pesquisadora da UFMG.

O PT também pede vedação de conteu?do que induza o eleitor a erro a partir da simulac?a?o de conteu?do jornali?stico.

A professora do IDP Laura Schertel propõe um sistema preventivo obrigatório para empresas de inteligência artificial com mecanismos de identificação e marcação de conteúdo sintético. Ela também recomenda a obrigação de implementar salvaguardas que impec?am a gerac?a?o de imagens realistas de candidatos ou autoridades eleitorais em contextos de viole?ncia, nudez ou atos ili?citos, na mesma linha que o DataPrivacyBR

"Os danos no processo eleitoral são tipicamente irreversíveis, por isso a arquitetura regulatória precisa ser mais preventiva", diz Bruno Bioni, diretor-fundador do DataPrivacyBR