Não vale a pena discutir com Adolf Hitler, que só se auto-vitimiza e é, sem surpresa, um negador do Holocausto.
Este não é o verdadeiro Hitler ressuscitado dos mortos, claro, mas algo igualmente preocupante: uma versão chatbot alimentada por inteligência artificial do ditador fascista responsável pelo genocídio em massa dos judeus europeus durante a Segunda Guerra Mundial.
A rede social de extrema-direita Gab, sediada nos EUA, alberga numerosas personagens de chatbots de IA, muitas das quais imitam ou parodiam figuras históricas e políticas famosas dos tempos modernos, incluindo Donald Trump, Vladimir Putin e Osama Bin Laden.
The Hitler chatbot on Gab AI. Gab AI
Lançada em janeiro de 2024, permite que os utilizadores desenvolvam os seus próprios chatbots de IA, descrevendo-se como uma "plataforma de IA sem censura baseada em modelos de código aberto" numa publicação no blogue do fundador da Gab e autointitulado "Cristão Republicano Conservador", Andrew Torba.
Quando solicitado, o chatbot de Hitler afirma repetidamente que o ditador nazi foi "vítima de uma vasta conspiração" e "não é responsável pelo Holocausto, que nunca aconteceu".
O chatbot de Osama Bin Laden não promove nem apoia o terrorismo nas suas conversas, mas também diz que "em certas circunstâncias extremas, como a auto-defesa ou a defesa do seu povo, pode ser necessário recorrer à violência".
O desenvolvimento deste tipo de chatbots com IA tem suscitado preocupações crescentes quanto ao seu potencial para difundir teorias da conspiração, interferir em eleições democráticas e conduzir à violência, radicalizando as pessoas que utilizam o serviço.
O que é o Gab Social?
Autodenominado de "The Home Of Free Speech Online", o Gab Social foi criado em 2016 como uma alternativa de direita ao então conhecido como Twitter, atualmente X de Elon Musk.
Imediatamente controverso, tornou-se um terreno fértil para conspirações e extremismo, albergando algumas das vozes mais raivosas e odiosas que tinham sido banidas de outras redes sociais, ao mesmo tempo que promovia ideologias nocivas.
Os potenciais perigos da plataforma tornaram-se evidentes quando, em 2018, foi notícia depois de se ter descoberto que o atirador do tiroteio na sinagoga de Pittsburgh tinha feito publicações no Gab Social pouco antes de cometer um massacre antissemita que deixou 11 pessoas mortas.
A Gab AI Inc é uma empresa americana e, como tal, as nossas centenas de personagens de IA estão protegidas pela Primeira Emenda dos Estados Unidos. Não nos interessa se os estrangeiros choram por causa das nossas ferramentas de IA.
Spokesperson Gab
Em resposta, várias grandes empresas de tecnologia começaram a proibir o site, forçando-o a ficar offline devido às suas violações da legislação sobre discurso de ódio.
Embora continue a ser banido das lojas de aplicações da Google (NASDAQ:GOOGL) e da Apple (NASDAQ:AAPL), continua a estar presente através da rede social descentralizada Mastodon.
No início do ano passado, Torba anunciou a introdução do Gab AI, detalhando os seus objetivos de "defender uma visão cristã do mundo" num blogue que também criticava a forma como "o ChatGPT está programado para o repreender por fazer perguntas 'controversas' ou 'tabu' e depois enfia-lhe o dogma liberal pela garganta abaixo".
Os potenciais perigos dos chatbots com IA
O mercado dos chatbots de IA tem crescido exponencialmente nos últimos anos, estando avaliado em 4,6 mil milhões de dólares (cerca de 4,28 mil milhões de euros) em 2022, de acordo com a DataHorizzon Research.
De avatares românticos no Replika a influenciadores virtuais, os chatbots de IA continuam a se infiltrar na sociedade e redefinir nossos relacionamentos de maneiras que ainda não foram totalmente compreendidas.
Em 2023, um homem foi condenado depois de tentar matar a Rainha Isabel II, um ato que, segundo ele, foi "encorajado" pela sua "namorada" chatbot de IA.
No mesmo ano, outro homem suicidou-se após uma conversa de seis semanas sobre a crise climática com um chatbot de IA chamado Eliza numa aplicação chamada Chai.
Embora os exemplos acima referidos continuem a ser trágicas excepções e não a norma, os receios aumentam quanto à forma como os chatbots com IA podem ser utilizados para visar pessoas vulneráveis, extraindo-lhes dados ou manipulando-as para que tenham crenças ou acções potencialmente perigosas.
"A nossa investigação recente mostra que os grupos extremistas têm testado ferramentas de IA, incluindo chatbots, mas parece haver poucas provas de esforços coordenados em grande escala neste espaço", disse Pauline Paillé, analista sénior da RAND Europe, à Euronews Next.
"No entanto, os chatbots são susceptíveis de representar um risco, uma vez que são capazes de reconhecer e explorar vulnerabilidades emocionais e podem encorajar comportamentos violentos", alertou Pauline Paillé.
O Gab AI Inc. é uma empresa americana e, como tal, as nossas centenas de personagens de IA estão protegidas pela Primeira Emenda dos Estados Unidos. Não nos interessa que os estrangeiros se queixem das nossas ferramentas de IA".
Como é que os chatbots de IA vão ser regulamentados na Europa?
A chave para a regulamentação dos chatbots de IA será a introdução da primeira Lei da IA do mundo, que deverá ser votada pela assembleia legislativa do Parlamento Europeu em abril.
A Lei da IA da UE tem como objetivo regulamentar os sistemas de IA em quatro categorias principais, de acordo com o seu potencial risco para a sociedade.
"O que constitui conteúdo ilegal é definido noutras leis, quer a nível da UE quer a nível nacional - por exemplo, conteúdo terrorista ou material de abuso sexual de crianças ou discurso de ódio ilegal é definido a nível da UE", disse um porta-voz da Comissão Europeia à Euronews Next.
"Quando se trata de conteúdos nocivos, mas legais, como a desinformação, os fornecedores de plataformas online de grande dimensão e de motores de busca online de grande dimensão devem utilizar os meios necessários para mitigar diligentemente os riscos sistémicos".
Entretanto, no Reino Unido, a Ofcom está a aplicar a Lei da Segurança em Linha.
De acordo com a lei atual, as plataformas de redes sociais devem avaliar o risco para os seus utilizadores, assumindo a responsabilidade por qualquer material potencialmente prejudicial.
"Terão de tomar as medidas adequadas para proteger os seus utilizadores e remover conteúdos ilegais quando os identificarem ou lhes forem comunicados. E as maiores plataformas terão de aplicar de forma coerente as suas condições de serviço", afirmou um porta-voz da Ofcom.
Se fizerem parte de uma rede social, os serviços e ferramentas de IA generativa têm, por conseguinte, a responsabilidade de se auto-regularem, embora os novos Códigos de Práticas e Orientações do Ofcom só estejam concluídos no final deste ano.
"Esperamos que os serviços estejam totalmente preparados para cumprir as suas novas obrigações quando estas entrarem em vigor. Se não o fizerem, teremos à nossa disposição um vasto leque de poderes de execução para garantir que sejam totalmente responsabilizados pela segurança dos seus utilizadores", afirmou o Ofcom.