Últimas Notícias
Investing Pro 0
Últimas horas: desbloqueie dados premium na Poupe 60%

Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?

Publicado 25.09.2023 11:08
Guardado. Veja Artigos Guardados.
Este artigo já foi guardado em Artigos Guardados
 
Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?
 
AAPL
+0,74%
Adicionar/Remover de uma carteira
Adicionar a Watchlist
Adicionar Posição

Posição adicionada com sucesso a:

Dê um nome à sua carteira de participações
 
TSLA
+0,49%
Adicionar/Remover de uma carteira
Adicionar a Watchlist
Adicionar Posição

Posição adicionada com sucesso a:

Dê um nome à sua carteira de participações
 
GOOG
-1,31%
Adicionar/Remover de uma carteira
Adicionar a Watchlist
Adicionar Posição

Posição adicionada com sucesso a:

Dê um nome à sua carteira de participações
 
SPOT
+1,13%
Adicionar/Remover de uma carteira
Adicionar a Watchlist
Adicionar Posição

Posição adicionada com sucesso a:

Dê um nome à sua carteira de participações
 
GOOGL
-1,42%
Adicionar/Remover de uma carteira
Adicionar a Watchlist
Adicionar Posição

Posição adicionada com sucesso a:

Dê um nome à sua carteira de participações
 

A Inteligência Artificial (IA) representa um risco potencialmente existencial para a humanidade? Essa é a opinião do Future of Life Institute (FLI), que publicou uma carta aberta há seis meses, apelando a uma "pausa imediata" nas grandes experiências de IA.

A carta surgiu no meio de uma vaga de interesse público pela IA generativa, uma vez que aplicações como o ChatGPT e Midjourney mostraram como a tecnologia está cada vez mais perto de replicar a capacidade humana na escrita e na arte.

Para os signatários da carta - que incluíam o CEO da X, Tesla (NASDAQ:TSLA) e SpaceX, Elon Musk, o cofundador da Apple (NASDAQ:AAPL), Steve Wozniak, e o autor Yuval Noah Harari - o aumento aparentemente repentino da IA generativa exige uma pausa. Empresas como a OpenAI, do ChatGPT, e a Google (NASDAQ:GOOGL) foram convidadas a considerar os "riscos profundos para a sociedade e para a humanidade" que a sua tecnologia poderá estar a criar.

É justo dizer que os principais atores não carregaram no botão de pausa.

Em vez disso, mais empresas juntaram-se à corrida da IA generativa com os seus próprios modelos de linguagem de grande dimensão (LLM), com a Meta a lançar o Llama 2 e a Anthropic a apresentar o seu rival Claude 2 do ChatGPT.

Independentemente de os avisos terem ou não sido ouvidos pelos gigantes da tecnologia, a carta do FLI constituiu uma espécie de marco no que se está a preparar para ser recordado como o ano da IA.

Mark Brakel, diretor de política do instituto, diz que não esperavam obter a resposta que a carta recebeu, com uma cobertura generalizada da imprensa e uma urgência renovada dos governos em saber o que fazer com o rápido progresso da IA.

A carta foi citada numa audição no Senado dos EUA e suscitou uma resposta formal do Parlamento Europeu.

Brakel disse à Euronews Next que a próxima cimeira mundial sobre a segurança da IA, que terá lugar em Bletchley Park, no Reino Unido, será uma boa oportunidade para os governos se manifestarem quando as empresas se recusarem a travar.

A palavra de ordem tem sido "IA generativa", mas em breve poderá ser "IA agêntica", em que a IA pode, efetivamente, tomar decisões e agir de forma autónoma.

"Penso que essa é talvez a linha de tendência que estamos a ver - e também vemos como a OpenAI quase raspou toda a Internet de texto. Estamos a começar a ver a recolha de vídeos, podcasts e Spotify (NYSE:SPOT) como fontes alternativas de dados, vídeo e voz", afirma.

Rumo ao desastre?

Brakel salienta que, embora "nos tenhamos tornado um pouco como 'a organização das cartas'", o FLI foi fundado em 2014 e tem trabalhado em três grandes áreas de risco a nível civil: inteligência artificial, biotecnologia e armas nucleares.

No seu website, o FLI tem um vídeo particularmente impressionante, um relato fictício, produzido de forma dispendiosa, de uma catástrofe global da inteligência artificial no ano 2032. No meio das tensões entre Taiwan e a China, a dependência militar da IA para a tomada de decisões conduz a uma guerra nuclear total, terminando o vídeo com o planeta iluminado por armas nucleares.

Brakel acredita que nos aproximámos deste tipo de cenário.

"A integração da inteligência artificial no comando e controlo militar ainda está a progredir, especialmente nas grandes potências. No entanto, também vejo um maior desejo dos Estados de regulamentar, especialmente quando se olha para a autonomia dos sistemas de armas convencionais", afirmou.

O próximo ano também parece ser promissor para a regulamentação da autonomia em sistemas como drones, submarinos e tanques, acrescentou.

"Espero que isso também permita que as grandes potências cheguem a acordos para evitar acidentes no comando e controlo nuclear, que é um nível mais sensível do que as armas convencionais."

Regulamentação a caminho

Embora as principais empresas de inteligência artificial não tenham feito uma pausa nas suas experiências, os seus líderes reconheceram abertamente os riscos profundos que a IA e a automação representam para a humanidade.

O CEO da OpenAI, Sam Altman, apelou aos políticos norte-americanos no início deste ano para estabelecerem uma regulamentação governamental da IA, revelando que os seus "piores receios são que nós (...), a indústria tecnológica, causemos danos significativos ao mundo". Isso poderia acontecer de "muitas maneiras diferentes", acrescentou. Defendeu a criação de uma agência norte-americana ou mundial que licencie os sistemas de IA mais potentes.

A Europa pode, no entanto, vir a ser o líder na regulamentação da IA, com a Lei da IA da União Europeia em preparação.

Os pormenores finais ainda estão a ser trabalhados entre as instituições do bloco, tendo o Parlamento Europeu votado esmagadoramente com 499 votos a favor, 28 contra e 93 abstenções.

De acordo com a lei, os sistemas de inteligência artificial serão classificados em diferentes níveis com base no grau de risco, sendo os tipos mais arriscados proibidos e os sistemas de risco limitado exigindo certos níveis de transparência e supervisão.

"De um modo geral, estamos bastante satisfeitos com a lei", diz Brakel. "Um aspeto que defendemos desde o início, quando a lei foi proposta pela Comissão, é a necessidade de regulamentar os sistemas baseados em GPT. Na altura estávamos a falar de GPT3 em vez de 4 [modelos de transformadores da OpenAI], mas o princípio continua a ser o mesmo e enfrentamos muitos lóbis das grandes tecnologias contra isso.

"A narrativa é a mesma nos EUA e na União Europeia (UE): só os utilizadores dos sistemas de IA, os responsáveis pela sua implementação, sabem em que contexto estão a ser implementados."

Dá o exemplo de um hospital que utiliza um chatbot para o contacto com os doentes. "O hospital vai comprar o chatbot da OpenAI, não o vai construir. E se depois houver um erro pelo qual seja responsabilizado por ter dado um conselho médico que não devia, então é evidente que tem de compreender o tipo de produto que comprou. E parte dessa responsabilidade deve ser partilhada."

Enquanto a Europa aguarda a formulação final da Lei da IA da UE, a cimeira mundial sobre segurança da inteligência artificial, a 1 de novembro, deverá ser o próximo evento a fornecer algumas informações sobre a forma como os líderes mundiais irão abordar a regulamentação da IA num futuro próximo.

Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?
 

Artigos Relacionados

Adicione um comentário

Diretrizes para Comentários

Encorajamos o uso de comentários como forma de interagir com os nossos usuários, compartilhar a sua perspetiva e fazer perguntas. No entanto, a fim de manter o alto nível do discurso que todos nós valorizamos e esperamos, por favor, mantenha os seguintes critérios em mente:

  • Enriqueça a conversa
  • Mantenha-se focado no tema. Apenas coloque conteúdo relativo ao tópico.
  • Seja respeitoso. Até as opiniões negativas podem ser enquadradas de forma positiva e diplomática.
  • Use estilo de escrita padrão. Incluir pontuação e letras maiúsculas e minúsculas.
  • NOTA: Spam e/ou mensagens promocionais ou links dentro de um comentário serão removidos.
  • Evite palavrões, calúnias ou ataques pessoais dirigidos a um autor ou outro usuário.
  • Somente serão permitidos comentários em Português.

Os autores de spam ou abuso serão excluídos do site e proibidos de registro no futuro, a critério Investing.com.

Escreva o que você pensa aqui
 
Tem certeza que deseja eliminar este gráfico?
 
Postar
Também publique em :
 
Substituir o gráfico anexado por um novo gráfico?
1000
A sua capacidade de comentar está suspensa devido a relatórios negativos por partes utilizadores. O estado será revisto pelos nossos moderadores.
Aguarde um minuto antes de tentar comentar novamente.
Obrigado pelo seu comentário. Por favor, note que todos os comentários estão automaticamente pendentes, em nosso sistema, até que aprovados por nossos moderadores. Por este motivo, pode demorar algum tempo antes que o mesmo apareça em nosso site.
 
Tem certeza que deseja eliminar este gráfico?
 
Postar
 
Substituir o gráfico anexado por um novo gráfico?
1000
A sua capacidade de comentar está suspensa devido a relatórios negativos por partes utilizadores. O estado será revisto pelos nossos moderadores.
Aguarde um minuto antes de tentar comentar novamente.
Anexar um gráfico a um comentário
Confirmar Bloqueio

Quer mesmo bloquear %USER_NAME%?

Se o fizer, não poderá consultar as mensagens de %USER_NAME% e vice versa em Investing.com.

Adicionou %USER_NAME% com sucesso à sua Lista de Bloqueios

Uma vez que acabou de desbloquear esta pessoa, deve aguardar 48 horas antes de bloqueá-la novamente.

Denunciar este comentário

Diga-nos o que achou deste comentário

Comentário denunciado

Obrigado!

Seu comentário foi enviado aos moderadores para revisão
Registe-se com o Google
ou
Registe-se com email