Ciência

Cientistas Pioneiros da IA Alertam para Necessidade de Proteções Contra Possíveis Riscos Catastróficos

2024-09-18

Cientistas que estiveram na vanguarda do desenvolvimento da inteligência artificial (IA) estão emitindo um urgente aviso: os países devem estabelecer um sistema global de supervisão para monitorar os riscos potenciais que essa tecnologia em rápido avanço apresenta.

O fenômeno gerado pela popularidade de assistentes de IA como o ChatGPT, que consegue gerar texto e imagens de forma autônoma, demonstra a velocidade alarmante com que a IA está avançando. Essa corrida para comercializar tais inovações rapidamente levou a tecnologia de ambientes acadêmicos para o cotidiano, afetando smartphones, automóveis e instituições de ensino. Isso força governos de todas as partes do mundo, desde os EUA até a China, a encontrarem maneiras eficazes de regular e aproveitar esses avanços.

Na última segunda-feira (16), um grupo formado por alguns dos mais influentes cientistas da área de IA manifestou preocupações de que a própria tecnologia que ajudaram a criar poderia causar danos irreversíveis. Eles expressaram que, em um futuro não muito distante, a IA poderia ultrapassar as capacidades humanas e que "a perda de controle ou a utilização maliciosa desses sistemas poderia resultar em consequências catastróficas para toda a humanidade."

Gillian Hadfield, especialista em direito e professora na Universidade Johns Hopkins, destacou que atualmente não há um plano de contenção caso esses sistemas de IA adquiram habilidades autônomas. "Se enfrentarmos uma catástrofe em seis meses, quem vai resolver?", questionou ela.

Entre os dias 5 e 8 de setembro, Hadfield e outros cientistas se reuniram em Veneza para discutir a criação de um sistema global de segurança em IA na terceira edição dos Diálogos Internacionais sobre Segurança de IA, evento organizado pelo Fóro de IA Segura, uma iniciativa de um grupo de pesquisa sem fins lucrativos chamado Far.AI.

O grupo enfatizou a necessidade de os governos terem conhecimento sobre o que ocorre nas laboratórios e empresas que trabalham com IA em seus territórios. Além disso, foi proposta a criação de autoridades de segurança de IA responsáveis por registrar os sistemas em operação, bem como colaborar em um conjunto de diretrizes e sinais de alerta que poderiam indicar potenciais riscos, como a capacidade de um sistema se reproduzir ou enganar seus criadores de maneira intencional.

Entre os assinantes da declaração estão figuras proeminentes da IA, como Yoshua Bengio, frequentemente considerado um dos "pais" da IA; Andrew Yao, professor da Universidade Tsinghua que influenciou muitos dos líderes de tecnologia da China, e Geoffrey Hinton, um cientista revolucionário com uma longa carreira na Google. Todos eles são laureados com o Prêmio Turing, conhecido como o "Nobel da Computação".

A assembleia em Veneza, realizada em um edifício pertencente ao bilionário filantropo Nicolas Berggruen, destacou a importância da colaboração científica entre pesquisadores ocidentais e chineses em um contexto de crescente rivalidade tecnológica entre as duas superpotências. Esse diálogo se revela essencial, especialmente em um momento em que a troca científica está diminuindo. Bengio fez uma comparação com as conversas entre cientistas americanos e soviéticos durante a Guerra Fria, que contribuíram para minimizar riscos nucleares.

Ao final, a rápida evolução da tecnologia torna desafiador para empresas e governos individuais decidirem como abordar essas questões, ressaltando que a colaboração entre nações e instituições é fundamental para garantir um futuro seguro para a inteligência artificial.