InfiniteFlow-stock.adobe.com
Relatório internacional alerta sobre os riscos presentes e futuros da IA
Evolução rápida e imprevisível da inteligência artificial torna insuficientes estratégias de segurança atuais. Documento produzido por especialistas de mais de 30 países discute uso da tecnologia para fraudes, extorsões, ataques cibernéticos e criação de armas biológicas.
Até 2030, a inteligência artificial (IA) deverá evoluir em um ritmo mais rápido do que a capacidade de identificar seus riscos e desenvolver defesas eficazes. É o que aponta o “International AI Safety Report 2026”, elaborado por um grupo de 100 especialistas, incluindo representantes de entidades como Organização das Nações Unidas (ONU) e Organização para a Cooperação e Desenvolvimento Econômico (OCDE).
Divulgado no começo de fevereiro, o documento apresenta uma avaliação científica detalhada das capacidades da IA de uso geral, seus riscos, tendências de evolução e possíveis estratégias de segurança. O foco do estudo são modelos e sistemas capazes de realizar uma ampla variedade de tarefas, como gerar textos, imagens, áudio e outros tipos de dados.
Principais avanços de 2025 e o que esperar
A primeira tendência observada foi o avanço significativo das capacidades da IA de uso geral, sobretudo em matemática, programação e raciocínio científico. Ainda assim, o desempenho permanece irregular: os sistemas podem resolver questões complexas de nível de doutorado, mas falham em tarefas aparentemente simples, como contar objetos em uma imagem.
Um dos principais avanços de 2025 foi a adoção generalizada de sistemas de raciocínio automatizado (“reasoning systems"), que tiram conclusões a partir do conhecimento disponível por meio de métodos lógicos.
Ao gerar e comparar múltiplas respostas dentro de sua cadeia de pensamento antes de responder, eles apresentam desempenho significativamente melhor em tarefas matemáticas, científicas e de programação.
Outra tendência apontada pelo relatório é a crescente capacidade dos agentes de IA de interagir com ambientes digitais e executar tarefas em várias etapas. No entanto, os sistemas continuam sujeitos a erros básicos, o que limita seu uso em diversos cenários.
Até 2030, especialistas esperam avanços contínuos com mais poder computacional e dados, mas discordam se o progresso vai desacelerar por limitações de energia ou acelerar à medida que a IA ajudar cada vez mais no seu próprio desenvolvimento e pesquisa.
“Desenvolvedores apostam que o poder computacional continuará essencial e já anunciaram investimentos de centenas de bilhões de dólares em data centers”, pontua o relatório.
De ataques cibernéticos a armas biológicas: perigos emergentes da IA
Ferramentas de IA têm eliminado barreiras para a criação de conteúdo nocivo, levando a aumentos documentados de fraudes, extorsão e imagens íntimas não consensuais. Além disso, esses sistemas já conseguem identificar vulnerabilidades de softwares e ajudar a escrever códigos maliciosos.
“Grupos criminosos e atacantes associados a Estados já utilizam IA de uso geral em suas operações. Ainda é incerto quem se beneficiará mais desse apoio: atacantes ou defensores”, afirma o grupo de especialistas.
Crescem ainda as preocupações de que a IA possa ajudar a desenvolver armas biológicas ou químicas ao fornecer instruções laboratoriais de nível especializado e suporte para solucionar falhas, o que tem levado desenvolvedores a adotar medidas preventivas em novos modelos.
A IA continua sujeita a “alucinações” (quando inventa fatos) e falhas de raciocínio. Em casos mais graves, sistemas desalinhados poderiam agir sem supervisão humana – um risco de probabilidade incerta, mas potencialmente extremo em impacto.
“Os sistemas atuais ainda não têm capacidade para gerar esses riscos, mas vêm avançando em áreas relevantes, como operação autônoma. Hoje é mais comum que modelos encontrem brechas nas avaliações, o que pode permitir que capacidades perigosas passem despercebidas antes da implementação”, diz o relatório internacional.
Como reduzir riscos
O relatório recomenda a “defesa em profundidade”, estratégia que combina múltiplas camadas independentes de proteção, como modelos treinados em segurança, filtros de entrada e saída e monitoramento humano contínuo, para que a falha de uma barreira não comprometa todo o sistema.
As estratégias de resiliência indicadas são divididas em quatro frentes: prevenir danos (como a triagem de síntese de DNA), manter humanos no controle de infraestruturas críticas, criar protocolos de resposta e correção após incidentes e promover adaptação de longo prazo, com educação midiática sobre conteúdo gerado por IA e atualização das regras de responsabilidade legal.
Saiba mais sobre Inteligência artificial e automação
-
Relatório da McKinsey revela tendências tecnológicas que devem dominar o próximo ano
-
Brasil acelera plano nacional de IA em resposta às tarifas americanas de 50%
-
Especialista alerta sobre o perigo dos contratos redigidos por IA
-
Empresa desenvolve método para analisar 100 mil sementes por hora com IA