Antena Livre
Deseja receber notificações?
CIMT
PUB

API: Eleições Legislativas e Inteligência Artificial: quem define a narrativa política?

29/03/2025 às 11:03

E se o próximo primeiro-ministro fosse escolhido por algoritmos invisíveis?  Em maio de 2025, Portugal enfrenta mais do que uma eleição legislativa, a saber, enfrenta um teste à sua própria democracia no século XXI. Vivemos numa era de transformação digital acelerada, onde a adaptabilidade se tornou essencial, conforme destacado no A Guide for Electoral Practitioners.

A crescente influência da IA, especialmente por meio de ferramentas como o ChatGPT da OpenAI e o Copilot da Microsoft, está a redefinir a forma como se processa o debate público. Se, por um lado, estas tecnologias prometem aumentar a participação eleitoral e a eficiência administrativa, por outro, levantam preocupações sérias sobre desinformação e manipulação – riscos que não são meramente teóricos, mas sim realidades documentadas. Por exemplo, nos Estados Unidos, um vídeo com recurso a IA prejudicou a campanha da (na altura) vice-presidente Kamala e levou a debates legais sobre a regulamentação de ‘deepfakes’ nas eleições. Na Alemanha, uma rede de sites ligados à Rússia utilizou conteúdo gerado por IA para influenciar negativamente a perceção pública de políticos pró-NATO e pró-Ucrânia, visando favorecer partidos nacionalistas.

As redes sociais, hoje, são a principal arena para a comunicação política. No entanto, a forma como as mensagens são geradas e difundidas é célere e, por vezes, incontrolável. Isto significa que a IA permite a produção de conteúdos personalizados em larga escala, amplificando determinadas narrativas e moldando as perceções públicas. Este poder de direcionar mensagens específicas para segmentos do eleitorado não é neutro: tanto pode servir para esclarecer como para manipular. Assim, não será legítimo perguntar: como estão a ser utilizadas estas tecnologias no contexto eleitoral?

Primeiro aspeto, a utilização de tecnologias modernas, como a IA, tem impacto na disseminação de mensagens políticas. Além disso, os debates televisivos, quando são editados ou apresentados de forma tendenciosa, as partilhas massivas em plataformas como WhatsApp e Facebook, e a proliferação de desinformação são fenómenos que também já foram observados em outros países. Isto é, a proliferação de “fake news”, vídeos manipulados no TikTok e conteúdos virais no Instagram são hoje elementos estruturais do ecossistema informativo. Segundo aspeto, a facilidade com que a IA pode gerar ‘deepfakes’ políticos e a dificuldade em detetá-los representam uma ameaça concreta à integridade eleitoral. Um outro exemplo que ocorreu em 2023 na Eslováquia através de vídeos com vozes de políticos geradas por IA e que foram disseminados nas redes sociais antes das eleições parlamentares.

É preciso estar ciente que segundo o Artificial Intelligence Index Report 2024 do Stanford Institute for Human-Centered AI (HAI), a criação de conteúdos gerados por IA não só exige recursos financeiros substanciais, como também depende de elevados níveis de literacia digital. Ou seja, o discurso de que a IA democratiza as campanhas ignora a disparidade de meios entre candidatas/os. E mais: como sublinha o relatório da UNESCO, a escala digital não corresponde necessariamente à escala da realidade. O que circula em redes sociais não reflete, de forma fiel, a complexidade e a pluralidade do debate político. Podemos, então, chamar a isto uma democracia informada e consciente?

Os riscos vão sempre muito além da desinformação. O estudo “AI guidelines for parliaments” da Fundação Westminster para a Democracia (WFD) também reconheceu que a IA pode facilitar o acesso ao governo e a criar novos canais de participação cívica. No entanto, este mesmo relatório adverte que a desinformação algorítmica, a concentração de poder e a vigilância aumentada exigem respostas regulatórias à altura dos desafios contemporâneos.

A meu ver, a IA não só está longe de corrigir as assimetrias existentes, como acentua as próprias desigualdades pré-existentes. Ou seja, quem controlar as ferramentas mais avançadas controlará também a narrativa pública, tornando o processo eleitoral desigual desde o início. No fundo, esta realidade reflete muito bem a falácia da meritocracia, onde se presume que todos partem do mesmo ponto de partida, mas ignora as disparidades estruturais existentes. E, como se sabe, fazer política sem dados rigorosos pode distorcer a realidade e afastar-nos da verdadeira eficácia política.

De modo que, a meu ver, ponto crucial é este: por que motivo se discute a utilização da IA em eleições sem antes garantir a salvaguarda da integridade do nosso sistema democrático? A WFD recomenda que os parlamentos assumam um papel ativo na supervisão do uso da IA, implementando legislações que mitiguem os riscos democráticos e criando órgãos especializados para monitorizar estas tecnologias.

Além disso, são evidentes as semelhanças com o setor corporativo. No mundo empresarial, as questões éticas em torno da IA são frequentemente secundarizadas em nome da inovação e do lucro. Ora, em política, a mentalidade “tudo o que pode ser feito, deve ser feito” é igualmente perigosa, é antiética! Não podemos confundir inovação tecnológica com progresso democrático.

Podemos redigir um programa eleitoral com recurso à IA? Sem dúvida. Devemos fazê-lo? Neste momento, enquanto damos os primeiros passos na implementação do AI ACT, eticamente, a resposta é um categórico não: a análise crítica de vieses e os aspetos essenciais da deliberação política humanizada (entre muitos outros fatores) são fundamentais para garantir a integridade e a autenticidade da democracia. Porque, em última análise, a tecnologia deve servir a cidadania – e não o contrário. A questão não é se a IA deve ser usada em eleições, mas como podemos garantir que essa utilização fortalece, e não fragiliza, a nossa democracia. Cabe às pessoas exigirem transparência e aos decisores assumirem a responsabilidade de proteger o que é, afinal, o alicerce de qualquer sociedade democrática: a confiança no processo eleitoral. Porque, sem essa confiança, o risco não é apenas tecnológico – é existencial para a própria democracia.

 

Lia Raquel Neves

Comunicadora em Ciências

Partilhar nas redes sociais:
Partilhar no X
Palavras chave:
API Investigação
PUB
Capas Jornal de Abrantes
Jornal de Abrantes - março 2025
Jornal de Abrantes - março 2025
PUB