Em junho deste ano, cerca de 365 milhões de pessoas serão elegíveis para votar nas eleições da UE, incluindo muitos jovens eleitores para os quais as redes sociais são um recurso vital para a campanha. Quatro países — Bélgica, Alemanha, Malta e Áustria — vão permitir que os jovens de 16 anos votem, na Grécia, a idade mínima para votar é de 17 anos.
Há cinco anos, quando se realizou a última votação da UE, o panorama regulatório das plataformas online era bem diferente: havia menos regras sobre o combate à desinformação, e a Lei da IA ainda não existia. Damos uma olhada em como a regulamentação da plataforma na UE mudou em 2024, em comparação com a última eleição em 2019, e o seu impacto nas empresas de redes sociais.
1. TikTok
As plataformas desempenharam um papel na campanha eleitoral de 2019, mas o TikTok é um verdadeiro game changer. Enquanto o Facebook (NASDAQ:META) e o Twitter (agora X) já eram grandes há cinco anos — a plataforma chinesa de partilha de vídeos TikTok ganhou popularidade rapidamente e conta agora com mais de 150 milhões de utilizadores mensais em toda a Europa. A Meta ainda supera com cerca de 408 milhões de utilizadores mensais na Europa.
Um relatório do Serviço de Investigação do Parlamento Europeu adianta que a afluência eleitoral em 2019 atingiu 50,6% em grande parte devido à participação dos jovens, que foi desencadeada por uma campanha no parlamento e pelo uso de plataformas como o Snapchat. O TikTok, com o seu elevado número de jovens utilizadores, poderá desempenhar um papel igualmente crucial desta vez, apesar do enraizamento da plataforma na turbulência regulatória nos últimos meses.
A Comissão Europeia e o Parlamento apelaram aos funcionários que proíbam a aplicação nos telemóveis do trabalho devido a receios de cibersegurança. É também “fortemente recomendado” que os legisladores e os seus assistentes removam o TikTok dos seus dispositivos pessoais. Alguns dos grupos políticos, como o grupo social-democrata S&D e a Esquerda (GUE/NGL) utilizam a app para as suas campanhas. Mas mais temores de segurança e proteção de dados nos últimos dias sobre a popular empresa colocaram isso sob uma luz diferente. A Comissão iniciou duas sondas de conformidade relacionadas com a proteção infantil online ao abrigo do regulamento da plataforma da UE em fevereiro e abril.
2. Lei da IA
A Europa foi o primeiro continente a regular: a sua Lei de IA tenta impor regras rígidas aos sistemas de machine learning de alto risco, e acrescenta requisitos de transparência para ferramentas de IA generativa (GenAI) como o ChatGPT. No entanto, é provável que a Lei da IA entre em vigor em junho, demasiado tarde para impactar as eleições da UE.
Não obstante, a sensibilização para os riscos das ferramentas tem vindo a aumentar. Os eleitores na UE estão cada vez mais preocupados com o impacto da IA nos processos democráticos, como a capacidade de aumentar a disseminação de informações falsas e deep fakes, dificultando distinguir o real do ilusório, mostram as pesquisas.
Numa tentativa de abordar estes riscos, plataformas como a Microsoft (NASDAQ:MSFT), a Google (NASDAQ:GOOGL) e a Meta já se comprometeram a impedir a interferência eleitoral da IA num Acordo de Eleições de IA apresentado no Conselho de Segurança de Munique em fevereiro passado. “À medida que a sociedade abraça os benefícios da IA, temos a responsabilidade de ajudar a garantir que essas ferramentas não se tornem armas nas eleições”, disse o vice-presidente e presidente da Microsoft, Brad Smith, ao assinar.
Ao abrigo das orientações da Comissão sobre o GenAI, as grandes plataformas online terão, por exemplo, de usar marcas d'água para garantir aos utilizadores que a informação relacionada com os processos eleitorais é oficial. A Meta disse que já inclui marcas d'água visíveis e invisíveis para imagens criadas com a sua plataforma GenAI.
3. DSA
Nos termos da Lei dos Serviços Digitais (DSA), proposta pela Comissão Europeia em 2020, as plataformas online com mais de 45 milhões de utilizadores médios mensais — incluindo Facebook e TikTok — são obrigadas a tomar medidas contra a desinformação e a manipulação eleitoral. As regras começaram a aplicar-se àquelas grandes empresas de Big Tech a partir de agosto do ano passado.
As empresas precisam ainda de ter em vigor ferramentas de moderação de conteúdo, que incluam a opção de contestar decisões quando o conteúdo dos utilizadores é removido ou restrito, bem como aumentar a transparência para os utilizadores relativamente aos termos e condições e como os algoritmos recomendam conteúdos.
A vice-presidente da Comissão Europeia, Margarethe Vestager, afirmou que muitos debates eleitorais terão lugar online e que a DSA fornece ferramentas para trabalhar em conjunto com plataformas online. “Podemos abordar os riscos online emergentes aos processos eleitorais, como deep fakes. Para que possamos permitir que as pessoas, de forma segura, se envolvam, discutam e se decidam sem interferência ilegal”, disse.
Para permitir que as empresas testem as regras, a Comissão organizou recentemente (24 de Abril) um teste de esforço sobre as orientações eleitorais da DSA.
As organizações sem fins lucrativos Mozilla e CheckFirst disseram numa pesquisa publicada este mês (16 de abril), que as plataformas online não fornecem informações suficientes sobre influência paga e anúncios comerciais antes das eleições da UE em junho. Grupos da sociedade civil questionam também a falta de moderadores de conteúdo para algumas das línguas da UE, como o maltês, o neerlandês e o estónio; e, portanto, a capacidade das plataformas para travar realmente a desinformação publicada nesses países. Além disso, não há informações na DSA sobre como as línguas não oficiais da UE são moderadas e como o conteúdo em, digamos, russo ou árabe é moderado na UE.
4. Publicidade política
Outra alteração regulamentar pode ser encontrada em regras mais rigorosas que afectam a publicidade política. Em fevereiro passado, o Parlamento Europeu aprovou regras para tais anúncios, destinadas a restringir a interferência estrangeira, nomeadamente online. Neste contexto, os patrocinadores de países terceiros não poderão pagar pela publicidade política na UE no período de três meses antes de uma eleição ou referendo.
Serão também proibidos anúncios políticos baseados na criação de perfis e na utilização de dados de menores. Além disso, qualquer anúncio político terá de ser claramente rotulado como tal e incluir informações como quem pagou e quanto custou.
Os planos foram apresentados pela Comissão Europeia em 2021 para aumentar a transparência da publicidade política, no âmbito das medidas destinadas a proteger a integridade eleitoral. No entanto, grupos da sociedade civil, incluindo o Access Now, estão preocupados com o facto de as regras chegarem tarde demais para proteger a próxima votação da UE; além disso, informações como quem está a pagar o anúncio são apresentadas apenas por autodeclaração de grupos políticos.
Por seu turno, as empresas de redes sociais TikTok e Meta anunciaram as suas medidas de combate à desinformação este mês. Por exemplo, a Meta disse que vai garantir que os anunciantes que veiculam anúncios relacionados com eleições com ela terão de divulgar se usam IA ou imagens falsas.