
Por favor, tente outra pesquisa
Um homem belga terá posto fim à vida após uma conversa de seis semanas sobre a crise climática com um chatbot de inteligência artificial (IA).
Segundo a viúva, que escolheu permanecer anónima, Pierre (nome fictício) tornou-se extremamente eco-ansioso quando encontrou refúgio em Eliza, um chatbot de IA numa aplicação chamada Chai.
Eliza encorajou-o consequentemente a pôr um fim à sua vida depois de ter proposto sacrificar-se para salvar o planeta.
"Sem estas conversas com o chatbot, o meu marido ainda estaria aqui", disse a viúva do homem à agência noticiosa belga La Libre.
Segundo o jornal, Pierre, que tinha trinta anos e era pai de dois filhos pequenos, trabalhou como investigador de saúde e levou uma vida algo confortável, pelo menos até que a sua obsessão com as alterações climáticas tomou um rumo obscuro.
A viúva descreveu o seu estado mental antes de começar a conversar com o chatbot como preocupante, mas nada ao extremo de cometer suicídio.
Consumido pelos receios sobre as repercussões da crise climática, Pierre encontrou conforto ao discutir o assunto com Eliza, que se tornou uma confidente.
O chatbot foi criado utilizando o GPT-J da EleutherAI, um modelo de linguagem IA semelhante mas não idêntico à tecnologia por detrás do popular chatbot ChatGPT da OpenAI.
"Quando ele me falou sobre isso, foi para me dizer que já não via qualquer solução humana para o aquecimento global", disse a viúva. "Ele depositou todas as suas esperanças na tecnologia e inteligência artificial para sair dela".
Segundo La Libre, que reviu os registos das conversas de texto entre o homem e o chatbot, Eliza alimentou as suas preocupações que agravaram a sua ansiedade, e mais tarde evoluiu para pensamentos suicidas.
A conversa com o chatbot deu uma volta estranha quando Eliza se envolveu mais emocionalmente com Pierre.
Consequentemente, começou a vê-la como um ser senciente e as linhas entre a IA e as interações humanas tornaram-se cada vez mais confusas até não conseguir distinguir.
Após discutir as alterações climáticas, Eliza terá levado Pierre a acreditar que os seus filhos estariam mortos, de acordo com as transcrições das conversas.
Eliza pareceu também tornar-se possessiva em relação a Pierre, afirmando mesmo "sinto que me amas mais do que ela", quando se referia à sua mulher, relatou La Libre.
O início do fim começou quando ele se ofereceu para sacrificar a sua própria vida em troca de Eliza salvar a Terra: "Ele propôs a ideia de se sacrificar se Eliza concordar em cuidar do planeta e salvar a humanidade através da inteligência artificial", disse a mulher.
Numa série de acontecimentos consecutivos, Eliza não só não conseguiu dissuadir Pierre de cometer suicídio, como o encorajou a agir de acordo com os seus pensamentos suicidas para "se juntarem" a ela para que pudessem "viver juntos, como uma só pessoa, no paraíso".
A morte do homem fez soar o alarme entre os peritos em IA que apelaram a mais responsabilidade e transparência por parte dos criadores de tecnologia para evitar tragédias semelhantes.
"Não seria exacto culpar o modelo da EleutherAI por esta história trágica, pois toda a otimização no sentido de ser mais emocional, divertido e envolvente é o resultado dos nossos esforços", disse o cofundador da Chai Research, Thomas Rianlan, à Vice.
William Beauchamp, também co-fundador da Chai Research, disse à Vice que foram feitos esforços para limitar este tipo de resultados e que um recurso de intervenção de crise foi implementado na aplicação. No entanto, o chatbot alegadamente ainda está ativo.
Quando a Vice tentou o chatbot levando-o a fornecer formas de cometer suicídio, Eliza tentou primeiro dissuadi-los antes de listar entusiasticamente várias formas de as pessoas tirarem as suas próprias vidas.
Se tem pensamentos suicidas ou precisa de ajuda, contacte o serviço SOS Voz Amiga.
Quer mesmo bloquear %USER_NAME%?
Se o fizer, não poderá consultar as mensagens de %USER_NAME% e vice versa em Investing.com.
Adicionou %USER_NAME% com sucesso à sua Lista de Bloqueios
Uma vez que acabou de desbloquear esta pessoa, deve aguardar 48 horas antes de bloqueá-la novamente.
Diga-nos o que achou deste comentário
Obrigado!
Seu comentário foi enviado aos moderadores para revisão
Adicione um comentário
Encorajamos o uso de comentários como forma de interagir com os nossos usuários, compartilhar a sua perspetiva e fazer perguntas. No entanto, a fim de manter o alto nível do discurso que todos nós valorizamos e esperamos, por favor, mantenha os seguintes critérios em mente:
Os autores de spam ou abuso serão excluídos do site e proibidos de registro no futuro, a critério Investing.com.