O Conselho de Segurança das Nações Unidas convocou uma sessão histórica para abordar a potencial ameaça da inteligência artificial (IA) à paz e à estabilidade internacionais.
O Secretário-Geral da ONU alertou o Conselho para o facto de o advento da IA poder ter consequências muito graves para a paz e segurança internacionais. António Guterres sublinhou a sua potencial utilização por terroristas, criminosos e governos, causando "níveis horríveis de morte e destruição, traumas generalizados e danos psicológicos profundos a uma escala inimaginável".
A IA pode ajudar a erradicar a pobreza, a acabar com a fome, a curar o cancro e a estimular a ação climática, mas outras "aplicações militares e não militares podem ter consequências graves para a paz e a segurança mundiais", disse Guterres.
Como primeiro passo, o Secretário-Geral apelou à necessidade de um observador global para monitorizar a tecnologia em rápida evolução e disse que a ONU vai nomear um conselho consultivo de alto nível para a IA.
A agência incluiria especialistas, oferecendo a sua experiência a governos e organismos administrativos que possam não ter os conhecimentos técnicos necessários para enfrentar eficazmente os desafios.
As Nações Unidas são "o lugar ideal" para adotar normas globais para maximizar os benefícios da IA e mitigar os seus riscos, afirmou.
O chefe da ONU também disse que acolheu os apelos de alguns países para criar um novo órgão para apoiar os esforços globais para governar a IA, "inspirado em modelos como a Agência Internacional de Energia Atómica, a Organização da Aviação Civil Internacional ou o Painel Intergovernamental sobre Mudanças Climáticas".
Durante um briefing em videoconferência com o Conselho de Segurança da ONU, o professor Yi Zeng, diretor do Laboratório de Inteligência Cognitiva Inspirada no Cérebro da Academia Chinesa de Ciências, disse que a ONU deveria estabelecer um grupo de trabalho para considerar os desafios de curto e longo prazo que a IA representa para a paz e segurança internacionais. Ao mesmo tempo, sublinhou que os recentes sistemas de IA "são todos ferramentas de processamento de informação que parecem ser inteligentes", mas não têm uma compreensão real e, por conseguinte, "não são verdadeiramente inteligentes".
Zeng, que também é codiretor do Centro de Investigação China-Reino Unido para a Ética e Governação da IA, advertiu que "a IA nunca deve fingir ser humana", insistindo que os seres humanos reais devem manter o controlo, especialmente de todos os sistemas de armas.
Avaliar a IA para detetar utilizações incorretas e falhas
Jack Clark, cofundador da empresa de IA Anthropic e ex-diretor de políticas da OpenAI - o laboratório criador do ChatGPT - também interveio no painel para avisar que não se pode confiar nas grandes empresas de tecnologia para garantir a segurança de sistemas que ainda não compreendemos e que são propensos a "comportamentos caóticos ou imprevisíveis".
"É como se estivéssemos a construir motores sem compreender a ciência da combustão", afirmou.
O empresário disse que é fundamental que o mundo se una e "trabalhe no desenvolvimento de formas de testar as capacidades, as utilizações indevidas e as potenciais falhas de segurança destes sistemas".
"Qualquer abordagem sensata à regulamentação começará por ter a capacidade de avaliar um sistema de IA para uma determinada capacidade ou falha", disse Clark num briefing em vídeo.
Neste momento, não existem normas ou mesmo boas práticas sobre "como testar estes sistemas de fronteira em termos de discriminação, utilização indevida ou segurança", o que dificulta a criação de políticas por parte dos governos e permite que o setor privado beneficie de uma vantagem em termos de informação, acrescentou.
Clark também alertou para as "potenciais ameaças à paz internacional, à segurança e à estabilidade global" devido ao potencial de utilização indevida e imprevisível da IA, "bem como à fragilidade inerente ao facto de ser desenvolvida por um conjunto tão restrito de intervenientes".
Outros executivos de IA, como o diretor executivo da OpenAI, Sam Altman, também apelaram à regulamentação.
Mas os céticos dizem que a regulamentação pode acabar por beneficiar empresas estabelecidas com recursos financeiros significativos, como a OpenAI, a Google (NASDAQ:GOOGL) e a Microsoft. Estas grandes empresas tecnológicas têm os recursos necessários para suportar os custos associados à garantia de que os seus modelos linguísticos de grande dimensão cumprem os requisitos regulamentares.
Consequentemente, os intervenientes mais pequenos na indústria da IA poderão ficar em desvantagem e ter dificuldade em competir com empresas maiores e financeiramente mais robustas.
O Ministro dos Negócios Estrangeiros britânico, James Cleverly, que presidiu à reunião, uma vez que o Reino Unido detém a presidência do Conselho este mês, anunciou que o seu país irá reunir os líderes mundiais para a primeira grande cimeira mundial sobre segurança da IA no outono.
"Estamos aqui hoje porque a IA vai afetar o trabalho deste Conselho. Pode melhorar ou perturbar a estabilidade estratégica mundial. Desafia os nossos pressupostos fundamentais sobre a defesa e a dissuasão", afirmou.
No mês passado, os legisladores da União Europeia aprovaram com sucesso o primeiro conjunto extenso de regulamentos do mundo para a inteligência artificial.
Este marco representa um avanço significativo à medida que as autoridades de todo o mundo se esforçam por controlar e gerir o impacto das tecnologias de IA.