Getty Images/iStockphoto

CEO da OpenAI defende a regulamentação da IA

Para mitigar os danos causados pela inteligência artificial, os líderes da indústria, incluindo o CEO da OpenAI, Sam Altman, disseram que a regulamentação será necessária.

A regulamentação da inteligência artificial (IA) será vital para orientar os benefícios das ferramentas generativas de IA no futuro e mitigar os riscos associados à tecnologia, disse Sam Altman, CEO da OpenAI, criadora do ChatGPT, em um painel do Senado na terça-feira.

Altman disse que seu maior medo é que a indústria de IA "cause danos significativos ao mundo". As ferramentas generativas de IA estão levantando preocupações, desde a criação de desinformação prejudicial até o potencial de deslocamento generalizado de empregos.

“Acho que se essa tecnologia der errado, pode ficar muito ruim”, disse Altman durante a audiência. "E queremos falar sobre isso. Queremos trabalhar com o governo para impedir que isso aconteça."

Altman testemunhou perante o Subcomitê Judiciário do Senado sobre Privacidade, Tecnologia e Lei em uma audiência que deu início a uma série para ajudar a determinar um curso de ação do Congresso sobre a regulamentação da IA.

Durante a audiência, vários senadores dos EUA, incluindo o presidente do subcomitê, senador Richard Blumenthal (D-Conn.), Enfatizaram a necessidade de ficar à frente do rápido avanço das ferramentas de IA, colocando em prática proteções adequadas para a tecnologia. Blumenthal disse que cabe ao Congresso escrever regras para a IA –algo que o Congresso não conseguiu fazer para as plataformas de mídia social quando elas ganharam destaque.

“Nosso objetivo é desmistificar e responsabilizar essas novas tecnologias para evitar alguns dos erros do passado”, disse Blumenthal. “O Congresso perdeu o momento nas redes sociais. Agora, temos a obrigação de fazer isso com IA antes que as ameaças e os riscos se tornem reais.”

Especialistas divergem sobre as rotas para a regulamentação da IA

Blumenthal sugeriu que alguns métodos de regulação de IA poderiam incluir o desenvolvimento de scorecards para sistemas de IA que fornecem informações, como em quais dados os modelos de IA estão sendo treinados. Também recomendou limitar o uso de IA na tomada de decisões que afetam os meios de subsistência dos consumidores.

Blumenthal disse que as empresas de IA também devem ser obrigadas a testar rigorosamente os sistemas de IA antes de lançá-los ao público.

Na verdade, Altman da OpenAI disse que antes de lançar qualquer novo sistema, a OpenAI realiza seus testes e, ao mesmo tempo, envolve partes externas para auditorias do sistema. Antes de lançar seu mais recente modelo de IA, GPT-4, a OpenAI passou seis meses testando e reunindo equipes externamente, disse ele. No entanto, Altman concordou com Blumenthal que intervenções regulatórias, como requisitos de licenciamento e teste para desenvolvimento de modelos de IA, serão necessárias para lidar com os riscos.

“Este é um momento extraordinário para trabalhar com inteligência artificial, mas à medida que essa tecnologia avança, entendemos que as pessoas estão ansiosas para aprender como isso pode mudar a maneira como vivemos”, disse Altman. "Mas acreditamos que podemos e devemos trabalhar juntos para identificar e gerenciar as possíveis desvantagens, para que todos possamos aproveitar o tremendo lado positivo."

Alguns senadores propuseram a criação de uma nova agência governamental para supervisionar a regulamentação da IA, o que foi contestado por Christina Montgomery, diretora de privacidade e confiança da IBM e testemunha na audiência. Montgomery destacou uma alegação feita por várias agências de aplicação da lei, incluindo a Comissão Federal de Comércio, de que podem fazer cumprir as leis existentes de proteção ao consumidor em relação aos sistemas de inteligência artificial.

Em vez disso, Montgomery instou o Congresso a governar a implantação da IA em casos de uso específicos, em vez de regular a própria tecnologia.

Montgomery disse que isso envolveria a definição de riscos e a criação de regras diferentes para diferentes níveis de risco. Por exemplo, um risco que os senadores destacaram durante a audiência foi que pessoas mal-intencionadas usariam ferramentas como o ChatGPT para criar e espalhar desinformação eleitoral, que Montgomery disse representar uma categoria de alto risco.

Gary Marcus, professor de psicologia e neurociência na Universidade de Nova York e outra testemunha durante a audiência, destacou a necessidade de acesso de terceiros a sistemas de IA para testes, principalmente quando se trata da ideia de desenvolver scorecards para sistemas de IA.

Marcus disse que os desafios técnicos permanecem, incluindo a compreensão de como modelos avançados de IA generalizam informações de grandes conjuntos de dados.

“É importante que os cientistas façam parte desse processo e que tenhamos muito mais transparência sobre o que está acontecendo nesses sistemas”, disse Marcus.

Sobre a autora: Makenzie Holland é redatora de notícias que cobre grandes regulamentações federais e de tecnologia. Antes de ingressar na TechTarget Editorial, ela foi repórter geral do Wilmington StarNews e repórter de crime e educação no Wabash Plain Dealer.

Saiba mais sobre Conformidade e controle

ComputerWeekly.com.br
ComputerWeekly.es
Close