putilov_denis - stock.adobe.com

Inteligência artificial deve aumentar velocidade e escopo de ataques cibernéticos em 2026

Segundo a relatório da Google, a adoção de sistemas agênticos, clonagem de voz hiper-realista e injeção de prompt em larga escala permitirão automatizar ciclos de ataque e sabotar infraestruturas empresariais.

O próximo ano marcará o início de uma nova era para inteligência artificial e segurança, aponta o relatório “Cybersecurity Forecast 2026" do Google Cloud, divulgado no último mês. A previsão é que o uso da ferramenta por agentes de ameaças passe de exceção para regra, transformando o cenário global de ameaças cibernéticas.

Esses agentes tendem a aprimorar sua atuação, ampliando velocidade, alcance e eficácia de ataques, especialmente nos casos de ransomware e roubo de dados. Ao mesmo tempo, equipes de defesa devem recorrer mais à tecnologia, com analistas de segurança deixando de “se afogar em alertas” para orientar agentes de IA no trabalho de detecção e resposta.

Uma ameaça crítica e crescente, segundo o documento, é a injeção de prompt, ataque que manipula a inteligência artificial (IA) para contornar seus protocolos de segurança e seguir comandos ocultos de um invasor. Com a expansão do uso corporativo de IA, há expectativa de um aumento significativo em ataques direcionados a sistemas de empresas.

Além disso, agentes de ameaças acelerarão a aplicação de engenharia social – tática de manipulação psicológica que induz alguém a realizar ações perigosas, como revelar dados ou instalar softwares maliciosos.

A chave para o sucesso dessas ofensivas em 2025 foi explorar fragilidades humanas, sobretudo por meio de “vishing” (voice fishing), que usa clonagens de voz por IA para criar imitações hiper-realistas de executivos ou membros da equipe de TI. Atores de ameaças também adotarão sistemas agênticos para automatizar etapas ao longo do ciclo de ataque.

Segundo o relatório, a combinação de ransomware, roubo de dados e extorsão multifacetada seguirá como o tipo de cibercrime mais financeiramente disruptivo em 2026. O volume dessas ações não para de crescer: o primeiro trimestre de 2025 registrou o maior número de vítimas já listadas em sites de vazamento de dados desde o início do monitoramento, em 2020, evidenciando a maturidade do ecossistema de extorsão cibernética.

O impacto vai muito além da vítima direta, já que fornecedores, clientes e comunidades inteiras são afetados. Em 2025, ataques que atingiram pontos críticos das cadeias de suprimentos de varejo e atacado de alimentos geraram prejuízos que somaram centenas de milhões de dólares.

Perigo pode vir de dentro das empresas

Outro risco para empresas é o uso crescente de agentes de IA por funcionários para executar tarefas, independentemente da aprovação corporativa. “Isso criará fluxos invisíveis e sem controle para dados sensíveis, com potencial para vazamentos de informação, violações de compliance e roubo de propriedade intelectual”, alerta o Google Cloud.

No entanto, banir agentes não é uma opção viável, pois “apenas empurra o uso para fora da rede corporativa e elimina a visibilidade”. A estratégia daqui para frente, orienta o relatório, deve ser criar um novo modelo de segurança e governança para a IA, baseado no princípio do “secure by design” – isto é: sistemas que já nascem pensados para serem seguros.

Isso inclui a adoção de ferramentas capazes de controlar, direcionar e acompanhar com segurança tudo o que os agentes fazem na rede. “Organizações bem-sucedidas criarão ambientes de trabalho que permitam inovação em IA sem abrir mão da segurança auditável.”

Um pilar central desse novo paradigma será a evolução da gestão de identidade e acesso. O conceito de identidade se ampliará para tratar agentes de IA como atores digitais distintos, cada um com sua própria identidade gerenciada. Essa mudança exigirá ir além da autenticação humana convencional e do modelo tradicional de contas de serviço, em direção a controles mais dinâmicos.

Saiba mais sobre Privacidade e proteção de dados