vchalup - stock.adobe.com

Risco e potencialidades do uso de IA generativa na producao de leis

Falta de novos conhecimentos, empatia e sensibilidade; a má compreensão de ética, moral e cultura, bem como vieses na redação, são alguns dos riscos de permitir que projetos de lei sejam elaborados por inteligência artificial generativa.

Em novembro, a Câmara de Vereadores de Porto Alegre aprovou por unanimidade um projeto de lei proposto pelo vereador Ramiro Rosário (PSDB), que isenta moradores da cobrança pela substituição do medidor de consumo de água em caso de furto. Mas, essa lei trouxe uma grande surpresa: o texto foi integralmente gerado pela ferramenta ChatGPT da OpenAI. Isso só foi revelado aos demais vereadores, ao prefeito e à população após a sanção do chefe do Executivo municipal.

O vereador “autor” solicitou à inteligência artificial (IA) a criação de uma lei municipal sobre a proibição de cobrança pelo Departamento Municipal de Água e Esgoto nos casos de furto do medidor. O texto passou por revisão antes da aprovação, gerando preocupações sobre o uso de IA na redação legislativa por ser um "precedente perigoso". Este caso inédito no Brasil impõe algumas reflexões sobre seus riscos.

Primeiramente, o texto de uma proposta de lei criada pelo ChatGPT nunca trará inovações para a sociedade, pois está sempre se baseando em leis existentes e documentos do passado, que foram utilizados para o treinamento da IA. Por outro lado, a IA não possui empatia, sensibilidade e nem conhece conceitos como ética e moralidade e terá dificuldade para entender contextos sociais, políticos e da cultura local, e, portanto, criar leis justas, adequadas ao contexto social e que evoluam junto com a sociedade.

Como a IA generativa é baseada em textos existentes no passado, disponíveis na internet para seu treinamento, ela possui viés. O viés político existente neste tipo de ferramenta tecnológica já foi estudado e documentado.

Por outro lado, ela é suscetível de ser manipulada pelo responsável pela Engenharia de Prompt e é importante prevenir esse tipo de manipulação.

Além disso, é bastante conhecido na área técnica o fenômeno chamado de “alucinação da IA generativa”, quando os textos gerados pelo algoritmo não refletem dados factuais, mas apenas um encadeamento de maior probabilidade estatística de palavras, que, muitas vezes, não fazem qualquer sentido no mundo real. É importante evitar que a alucinação da IA interfira nos textos de propostas de lei, através de uma revisão jurídica detalhada por especialistas.

Somado a isso, existe o problema de falta de acurácia em contexto jurídico e legal específico. Propostas de lei precisam atender a requisitos próprios, tanto legais quanto técnicos. Qualquer IA sem treinamento específico não consegue elaborar textos que respeitem a Constituição e outras legislações relacionadas de cada país e/ou estado.

Por fim, os textos gerados por IA generativa podem ser ambíguos, o que pode levar a divergências de interpretação e insegurança jurídica no futuro, aumentando os litígios relacionados ao tema

Também são válidos os seguintes questionamentos: A quem interessa que uma lei escrita por IA seja aprovada em uma cidade como Porto Alegre? Isso é um ato isolado de um Vereador ou há uma construção de narrativa para permitir que tal prática se torne aceitável pela sociedade, sem questionamentos? A lei sempre possui um autor, responsável por propô-la. Quem é o autor de uma lei gerada por uma IA? Como evitar que toda produção legal do mundo seja pasteurizada a partir da visão dos criadores da IA generativa?

Concluindo, a IA generativa é um recurso valioso, pois permite a geração de ideias a partir de uma vasta base de dados. Entretanto, é fundamental que essas ideias sejam analisadas, criticadas e colocadas dentro de um contexto jurídico e social, garantindo sua conformidade jurídica, a fim de evitar erros e distorções que possam ter impactos negativos sobre a sociedade.

Sobre o autor: Victor Rizzo é engenheiro, empresário, diretor de Inovação da E-XYON e diretor-executivo da INOV.AI, empresa especializada em inteligência artificial para o segmento jurídico. Também é coordenador do Comitê da Governança Digital, Risco e Compliance da HYON PAR.
Possui mais de 20 anos de experiência na área de tecnologia e dedica-se nos últimos 6 anos ao desenvolvimento de serviços de inteligência artificial para área Jurídica.

Saiba mais sobre Conformidade e controle

ComputerWeekly.com.br
ComputerWeekly.es
Close