Uma olhada na declaração de 'risco de extinção de IA'

A declaração iguala o risco potencial de erradicação humana da IA com o de uma guerra nuclear. No entanto, alguns argumentam que o risco existente de viés da IA deve ser mitigado pela sociedade.

Semanas depois que centenas de líderes de tecnologia, incluindo Elon Musk e o CEO da OpenAI, Sam Altman, assinaram uma carta aberta pedindo um hiato de seis meses na inteligência artificial (IA), um grupo dos principais especialistas em IA colocou seus nomes em outra declaração de que ele iguala sem rodeios o perigo da tecnologia IA ao da guerra nuclear e das pandemias.

Desta vez, um grupo semelhante de líderes pediu não uma pausa, mas uma ação regulatória global.

O Center for AI Security (CAIS), uma organização dedicada ao desenvolvimento e implantação seguros da tecnologia AI, emitiu em 30 de maio uma breve declaração dizendo: "Mitigar o risco de extinção da IA deve ser uma prioridade". uma escala social". riscos como pandemias e guerra nuclear.

A declaração foi assinada por proeminentes líderes de IA, como Demis Hassabis, CEO do Google DeepMind; Sam Altman, CEO da OpenAI; Dario Amodei, CEO da Anthropic, fornecedora de segurança e pesquisa de IA; e Geoffrey Hinton, ex-engenheiro do Google e professor emérito de ciência da computação na Universidade de Toronto.

O risco atual da IA

Enquanto alguns concordam com a afirmação do CAIS de que prevenir a extinção da IA deve ser uma prioridade, outros, como Chirag Shah, professor da Escola de Informação da Universidade de Washington, veem esse medo como rebuscado.

“Os perigos reais da IA já estão acontecendo e devemos prestar mais atenção a eles do que ao que pode ou não acontecer no futuro”, disse Shah. “Mais precisamente, não devemos perder de vista os perigos da IA agora, enquanto nos distraímos com possíveis cenários apocalípticos”.

Os problemas atuais com algumas tecnologias de IA incluem preconceito racial, de gênero e outros preconceitos e discriminação incorporados em modelos de IA –incluindo os amplamente populares modelos de linguagem grande– bem como desigualdade na tomada de decisões baseada em IA e falta de transparência, disse Shah. Ele acrescentou que essas são questões éticas, legais e econômicas que precisam ser abordadas com maior urgência.

"Prestar muita atenção à 'extinção da IA' e não fazer o suficiente sobre esses problemas atuais é como construir abrigos antiaéreos às custas de alimentar uma população que está morrendo de fome agora", disse ele.

Em vez disso, os líderes de IA devem concentrar sua atenção e recursos em abordar os problemas na vanguarda da tecnologia de IA no momento.

O risco de extinção da IA

No entanto, apesar dos problemas atuais associados à tecnologia de IA, ainda é necessário cautela porque o potencial poder destrutivo da tecnologia é desconhecido, disse Sarah Kreps, professora da Cornell University e diretora do Institute for Technology Policy da Cornell.

“O que estamos vendo com essas declarações é um princípio de precaução”, disse Kreps. "No momento, não sabemos o que não sabemos. Então, por que não ter cautela e apelar para mitigar os riscos associados à IA?"

A proposta do CAIS de tornar o risco de extinção da vida humana uma prioridade global é modesta, acrescentou Kreps. Ao contrário do que foi visto como um apelo irreal para uma pausa na IA, ele propõe essencialmente um tratado internacional, disse ele.

“Vejo isso mais como um apelo para mapear os riscos associados à IA –não onde a IA está hoje, mas um mundo futuro de inteligência artificial global– para que possamos nos proteger contra esses riscos”, continuou Kreps.

Uma vez que esses riscos sejam identificados e expostos, ficará mais claro se o risco associado à IA é equivalente a uma guerra nuclear e uma pandemia, acrescentou.

“Precisamos de mais consciência e estudo desses riscos para que possamos ver quais estratégias de mitigação seguir”, disse Kreps.

No entanto, embora a probabilidade e as consequências de uma pandemia, guerra nuclear e extinção causada por IA sejam todas diferentes, a declaração visa esclarecer o público, disse Kashyap Kompella, diretor executivo e analista da RPA2AI Research.

"As cartas são uma campanha para persuadir o público e há um elemento de hipérbole por causa disso", disse ele.

Além disso, ao escolher qual risco de IA priorizar –por exemplo, entre risco de viés e extinção– pode não haver necessidade de escolher.

"Eu diria: 'Por que não os dois?' Espero que haja melhores salvaguardas contra sistemas de IA defeituosos à medida que avançamos”, disse Kompella.

Embora atualmente não haja um tratado global sobre a mesa, os EUA e nações estrangeiras, incluindo países da União Europeia e a China, introduziram recentemente legislação regulatória e outras medidas para eliminar riscos conhecidos de IA, como preconceito e falta de transparência.

O CAIS não respondeu a um pedido de comentário.

Esther Ajao é redatora de notícias sobre software e sistemas de inteligência artificial.

Saiba mais sobre Políticas e conscientização

ComputerWeekly.com.br
ComputerWeekly.es
Close