POLÍTICA

Inteligência artificial tende a ser o maior cabo eleitoral nas eleições municipais

A recente política de privacidade da Meta indica a falta de transparência no uso de uma tecnologia que altera o funcionamento da realidade, do comportamento humano e influencia eleitores
Por Elstor Hanzen / Publicado em 16 de julho de 2024

Inteligência artificial tende a ser o maior cabo eleitoral nas eleições municipais

Ilustração feita com IA/Canva Magic Media

Ilustração feita com IA/Canva Magic Media

A menos de 90 dias das eleições em que 5.570 cidades brasileiras vão escolher seus prefeitos e vereadores, um fator central para a campanha deixa os especialistas e a Justiça Eleitoral em alerta: a Inteligência Artificial (IA).

Instituições como o Tribunal Superior Eleitoral (TSE) têm se preocupado com o uso cada vez mais intenso da IA na propaganda partidária. Por isso, o TSE já tratou de proibir as deepfakes, restringir o emprego de robôs para intermediar contato com o eleitor e responsabilizar as big techs que não retirarem do ar conteúdos com desinformação de discurso de ódio, por exemplo, nas eleições municipais de 2024. Neste sentido, 12 resoluções foram aprovadas e publicadas no começo do ano.

Ao mesmo tempo, as big techs, multinacionais que controlam o negócio de tecnologia, têm andado de costas à transparência e à regulação do setor. Em maio, a Meta alterou as políticas de plataformas, como Facebook e Instagram, sem avisar ao público no Brasil. A Autoridade Nacional de Proteção de Dados (ANPD) brasileira apontou risco “de dano grave e irreparável” aos direitos dos afetados, pedindo a suspensão do tratamento de dados dos usuários.

“A recente nova política de privacidade da Meta indica claramente a falta de transparência, por exemplo, ao não disponibilizar o acesso ao dispositivo (opt-out – botão com a opção de se descadastrar), permitindo ao usuário escolher se quer ou não que as empresas usam seus dados pessoais”, explica Dora Kaufman, professora do Programa Tecnologias da Inteligência e Design Digital da Faculdade de Ciências Exatas e Tecnologia da Pontifícia Universidade Católica de São Paulo (TIDD/PUC-SP).

Dora é uma das principais especialistas do país na área, com pesquisas sobre os impactos éticos e sociais da IA. Ela alerta que a IA generativa, que a Meta está treinando, representa uma nova fronteira nas estratégias de influenciar crenças, comportamentos e preferências, gerando uma superpersuasão e realidade nunca vista. Segundo a professora, não se trata de meramente aprimorar a comunicação, mas de construir versões sintéticas de imagens e vozes quase fidedignas às originais, ou seja, “realidade” feita com deepfakes, proibidas pelo TSE.

“Tudo produzido por inteligência artificial é “realidade”, mesmo quando são simulacros de pessoas (por exemplo, o sistema de deepfake, que imita a imagem ou som de alguém). Do meu ponto de vista, a divisão não é entre “realidade” e “não-realidade”, mas sim entre sintético e não sintético (sintético são textos, imagens, vídeos produzidos por IA)”, destaca.

A professora da TIDD/PUC-SP e doutora em mídias digitais pela ECA-USP assegura que a IA generativa aperfeiçoa significativamente a eficácia da persuasão, fazendo com que os eleitores interajam com simulacros dos candidatos, sendo que haverá eleitores crendo que estão efetivamente interagindo com o próprio candidato, estabelecendo um forte apelo emocional.

Para Dora, isso “criar ilusões e manipular decisões com grau de exatidão inéditos, mensagens hiperpersuasivas podem influenciar as escolhas dos eleitores em processos eleitorais (assim como as preferências dos consumidores no domínio da publicidade comercial)”, escreve em um artigo, divulgado no final de junho. Além disso, a tecnologia enfrenta outro problema nas eleições. Conforme Dora, a IA privilegia os candidatos com acesso à tecnologia e a recursos financeiros, acentuando a concorrência desigual.

Terceira revolução

A inteligência artificial, campo de conhecimento que vem de 1956, é a ciência e a engenharia de criar máquinas que sejam capazes de reproduzir funções exercidas pelo cérebro biológico. A partir disso, conforme Dora, surgiram dois caminhos: a IA simbólica, com foco em programação (regras computáveis), e o aprendizado de máquina (machine learning), com objetivo de extrair padrões de grandes conjuntos de dados.

Popularmente chamada de “algoritmos de IA”, essa técnica de aprendizado de máquina permeia a maior parte das aplicações de inteligência artificial, impactando fortemente as pessoas e as instituições.

Segundo a doutora em mídias digitais, a IA é chamada de propósito geral, porque muda a lógica de funcionamento da sociedade, por isso precisa ser regulada. Ela é comparada a outras três tecnologias de propósito geral: descoberta do carvão, energia elétrica e computação. “É uma tecnologia que muda a lógica de funcionamento da economia e da sociedade”, especifica Dora.

“Quando aprovado o PL 2338, constituindo o Marco Regulatório da IA no Brasil, ao definir regras e obrigações para o desenvolvimento e uso da IA, terá impacto em todos os setores”, ressalta, referindo-se ao projeto de regulação da nova tecnologia em andamento no Senado.

Ela ainda salienta que o Brasil não está atrasado em regulamentar a IA se comparado a outros países. “Apenas a Europa possui uma Lei de IA, recentemente aprovada e com um cronograma de entrada em vigência parcelado, ou seja, cada conjunto de obrigações tem uma data específica para entrar em vigência ao longo de dois anos”, lembra.

Comentários