Poupe 40%
Novo! 💥 Adira a ProPicks e veja a estratégia que superou o S&P 500 em + de 1,183% Poupe 40%

Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?

Publicado 25.09.2023, 11:08
Atualizado 25.09.2023, 11:10
Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?

A Inteligência Artificial (IA) representa um risco potencialmente existencial para a humanidade? Essa é a opinião do Future of Life Institute (FLI), que publicou uma carta aberta há seis meses, apelando a uma "pausa imediata" nas grandes experiências de IA.

A carta surgiu no meio de uma vaga de interesse público pela IA generativa, uma vez que aplicações como o ChatGPT e Midjourney mostraram como a tecnologia está cada vez mais perto de replicar a capacidade humana na escrita e na arte.

Para os signatários da carta - que incluíam o CEO da X, Tesla (NASDAQ:TSLA) e SpaceX, Elon Musk, o cofundador da Apple (NASDAQ:AAPL), Steve Wozniak, e o autor Yuval Noah Harari - o aumento aparentemente repentino da IA generativa exige uma pausa. Empresas como a OpenAI, do ChatGPT, e a Google (NASDAQ:GOOGL) foram convidadas a considerar os "riscos profundos para a sociedade e para a humanidade" que a sua tecnologia poderá estar a criar.

É justo dizer que os principais atores não carregaram no botão de pausa.

Em vez disso, mais empresas juntaram-se à corrida da IA generativa com os seus próprios modelos de linguagem de grande dimensão (LLM), com a Meta a lançar o Llama 2 e a Anthropic a apresentar o seu rival Claude 2 do ChatGPT.

Independentemente de os avisos terem ou não sido ouvidos pelos gigantes da tecnologia, a carta do FLI constituiu uma espécie de marco no que se está a preparar para ser recordado como o ano da IA.

Mark Brakel, diretor de política do instituto, diz que não esperavam obter a resposta que a carta recebeu, com uma cobertura generalizada da imprensa e uma urgência renovada dos governos em saber o que fazer com o rápido progresso da IA.

Anúncio de terceiros. Não é uma oferta, nem recomendação da Investing.com. Ver declaração aqui ou remover anúncios .

A carta foi citada numa audição no Senado dos EUA e suscitou uma resposta formal do Parlamento Europeu.

Brakel disse à Euronews Next que a próxima cimeira mundial sobre a segurança da IA, que terá lugar em Bletchley Park, no Reino Unido, será uma boa oportunidade para os governos se manifestarem quando as empresas se recusarem a travar.

A palavra de ordem tem sido "IA generativa", mas em breve poderá ser "IA agêntica", em que a IA pode, efetivamente, tomar decisões e agir de forma autónoma.

"Penso que essa é talvez a linha de tendência que estamos a ver - e também vemos como a OpenAI quase raspou toda a Internet de texto. Estamos a começar a ver a recolha de vídeos, podcasts e Spotify (NYSE:SPOT) como fontes alternativas de dados, vídeo e voz", afirma.

Rumo ao desastre?

Brakel salienta que, embora "nos tenhamos tornado um pouco como 'a organização das cartas'", o FLI foi fundado em 2014 e tem trabalhado em três grandes áreas de risco a nível civil: inteligência artificial, biotecnologia e armas nucleares.

No seu website, o FLI tem um vídeo particularmente impressionante, um relato fictício, produzido de forma dispendiosa, de uma catástrofe global da inteligência artificial no ano 2032. No meio das tensões entre Taiwan e a China, a dependência militar da IA para a tomada de decisões conduz a uma guerra nuclear total, terminando o vídeo com o planeta iluminado por armas nucleares.

Brakel acredita que nos aproximámos deste tipo de cenário.

"A integração da inteligência artificial no comando e controlo militar ainda está a progredir, especialmente nas grandes potências. No entanto, também vejo um maior desejo dos Estados de regulamentar, especialmente quando se olha para a autonomia dos sistemas de armas convencionais", afirmou.

Anúncio de terceiros. Não é uma oferta, nem recomendação da Investing.com. Ver declaração aqui ou remover anúncios .

O próximo ano também parece ser promissor para a regulamentação da autonomia em sistemas como drones, submarinos e tanques, acrescentou.

"Espero que isso também permita que as grandes potências cheguem a acordos para evitar acidentes no comando e controlo nuclear, que é um nível mais sensível do que as armas convencionais."

Regulamentação a caminho

Embora as principais empresas de inteligência artificial não tenham feito uma pausa nas suas experiências, os seus líderes reconheceram abertamente os riscos profundos que a IA e a automação representam para a humanidade.

O CEO da OpenAI, Sam Altman, apelou aos políticos norte-americanos no início deste ano para estabelecerem uma regulamentação governamental da IA, revelando que os seus "piores receios são que nós (...), a indústria tecnológica, causemos danos significativos ao mundo". Isso poderia acontecer de "muitas maneiras diferentes", acrescentou. Defendeu a criação de uma agência norte-americana ou mundial que licencie os sistemas de IA mais potentes.

A Europa pode, no entanto, vir a ser o líder na regulamentação da IA, com a Lei da IA da União Europeia em preparação.

Os pormenores finais ainda estão a ser trabalhados entre as instituições do bloco, tendo o Parlamento Europeu votado esmagadoramente com 499 votos a favor, 28 contra e 93 abstenções.

De acordo com a lei, os sistemas de inteligência artificial serão classificados em diferentes níveis com base no grau de risco, sendo os tipos mais arriscados proibidos e os sistemas de risco limitado exigindo certos níveis de transparência e supervisão.

"De um modo geral, estamos bastante satisfeitos com a lei", diz Brakel. "Um aspeto que defendemos desde o início, quando a lei foi proposta pela Comissão, é a necessidade de regulamentar os sistemas baseados em GPT. Na altura estávamos a falar de GPT3 em vez de 4 [modelos de transformadores da OpenAI], mas o princípio continua a ser o mesmo e enfrentamos muitos lóbis das grandes tecnologias contra isso.

Anúncio de terceiros. Não é uma oferta, nem recomendação da Investing.com. Ver declaração aqui ou remover anúncios .

"A narrativa é a mesma nos EUA e na União Europeia (UE): só os utilizadores dos sistemas de IA, os responsáveis pela sua implementação, sabem em que contexto estão a ser implementados."

Dá o exemplo de um hospital que utiliza um chatbot para o contacto com os doentes. "O hospital vai comprar o chatbot da OpenAI, não o vai construir. E se depois houver um erro pelo qual seja responsabilizado por ter dado um conselho médico que não devia, então é evidente que tem de compreender o tipo de produto que comprou. E parte dessa responsabilidade deve ser partilhada."

Enquanto a Europa aguarda a formulação final da Lei da IA da UE, a cimeira mundial sobre segurança da inteligência artificial, a 1 de novembro, deverá ser o próximo evento a fornecer algumas informações sobre a forma como os líderes mundiais irão abordar a regulamentação da IA num futuro próximo.

Últimos comentários

precisa-se urgentemente. sem leis claras e rigorosa tudo fica bangusado
Divulgação de riscos: A realização de transações com instrumentos financeiros e/ou criptomoedas envolve altos riscos, incluindo o risco de perda de uma parte ou da totalidade do valor do investimento, e pode não ser adequada para todos os investidores. Os preços das criptomoedas são extremamente voláteis e podem ser afetados por fatores externos tais como eventos financeiros, regulamentares ou políticos. A realização de transações com margem aumenta os riscos financeiros.
Antes de decidir realizar transações com instrumentos financeiros ou criptomoedas, deve informar-se sobre os riscos e custos associados à realização de transações nos mercados financeiros, considerar cuidadosamente os seus objetivos de investimento, nível de experiência e nível de risco aceitável, e procurar aconselhamento profissional quando este é necessário.
A Fusion Media gostaria de recordar os seus utilizadores de que os dados contidos neste website não são necessariamente fornecidos em tempo real ou exatos. Os dados e preços apresentados neste website não são necessariamente fornecidos por quaisquer mercados ou bolsas de valores, mas podem ser fornecidos por formadores de mercados. Como tal, os preços podem não ser exatos e podem ser diferentes dos preços efetivos em determinados mercados, o que significa que os preços são indicativos e inapropriados para a realização de transações nos mercados. A Fusion Media e qualquer fornecedor dos dados contidos neste website não aceitam a imputação de responsabilidade por quaisquer perdas ou danos resultantes das transações realizadas pelos seus utilizadores, ou pela confiança que os seus utilizadores depositam nas informações contidas neste website.
É proibido usar, armazenar, reproduzir, mostrar, modificar, transmitir ou distribuir os dados contidos neste website sem a autorização prévia e explicitamente concedida por escrito pela Fusion Media e/ou pelo fornecedor de dados. Todos os direitos de propriedade intelectual são reservados pelos fornecedores e/ou pela bolsa de valores responsável pelo fornecimento dos dados contidos neste website.
A Fusion Media pode ser indemnizada pelos anunciantes publicitários apresentados neste website, com base na interação dos seus utilizadores com os anúncios publicitários ou com os anunciantes publicitários.
A versão em inglês deste acordo é a versão principal, a qual prevalece sempre que há qualquer discrepância entre a versão em inglês e a versão em português.
© 2007-2024 - Fusion Media Limited. Todos os direitos reservados.