Investigadores de segurança criaram um worm (minhoca, em português) de inteligência artificial (IA) que pode infiltrar-se em modelos como o ChatGPT e o Gemini, e potencialmente roubar dados.
Baseados nos Estados Unidos e em Israel, os investigadores construíram propositadamente um worm informático para servir de informador e evitar a sua ocorrência em modelos de IA generativa (GenAI).
Um worm informático pode replicar-se e propagar-se comprometendo outras máquinas. Ao contrário de outros worms, este não precisa que o utilizador clique ou abra uma mensagem de correio eletrónico para receber o malware, fá-lo automaticamente no momento em que recebe a mensagem de correio eletrónico infetada.
Chamaram-lhe Morris II, em homenagem ao primeiro worm informático desenvolvido em 1988.
Como funciona?
Os investigadores criaram um sistema de correio eletrónico que podia responder a mensagens utilizando o GenAI e depois ligar-se aos modelos ChatGPT, Gemini e LLaVA.
O Morris II foi demonstrado contra assistentes de correio eletrónico equipados com GenAI e podia roubar dados pessoais e lançar campanhas de spam.
"O estudo demonstra que os atacantes podem inserir tais prompts em entradas que, quando processadas por modelos GenAI, levam o modelo a replicar a entrada como saída (replicação) e se envolver em atividades maliciosas (carga útil) ", escreveram os investigadores.
O prompt, que é qualquer pergunta ou comunicação feita ao modelo de IA, força o modelo de IA a responder com outro prompt, que pode infetar o assistente de IA para depois extrair informações sensíveis.
O worm pode então ser enviado para outros contactos na sua rede online, "explorando a conetividade dentro do ecossistema GenAI", acrescentaram.
Os investigadores avisam que, embora não tenham sido detectados worms de IA, é apenas uma questão de tempo.
"Basicamente, significa que agora temos a capacidade de conduzir ou executar um novo tipo de ciberataque que nunca foi visto antes", disse Ben Nassi, investigador da Universidade de Cornell responsável pelo worm informático, numa entrevista à publicação Wired.
O estudo é preocupante, uma vez que os assistentes de IA estão a ser introduzidos em dispositivos inteligentes e até em automóveis, e podem enviar e-mails ou marcar compromissos em nome de alguém.
Num outro artigo publicado no mês passado, investigadores de Singapura e da China mostraram que podiam facilmente obter acesso ao sistema operativo de um modelo de linguagem de grande dimensão (LLM).