Chaiyawat - stock.adobe.com
Como empresas podem preparar funcionários para gerenciar riscos da IA?
Webinar da Cloudflare discute práticas de proteção de usuários corporativos para prevenir vazamentos de dados e reduzir falhas de segurança.
A Cloudflare promoveu, no 25 de novembro, um evento online sobre gerenciamento de exposição contra riscos da inteligência artificial (IA) em empresas, com foco na experiência do funcionário. Foram apresentadas dicas de como identificar ameaças e estabelecer diretrizes e ações estratégicas para controle de uso.
Guillaume Ferland, Senior Solution Engineer da empresa americana especializada em infraestrutura de acesso à internet, conduziu o webinar. “Estamos sendo pressionados a explorar cada vez mais a inteligência artificial e acelerar sua adoção, e isso introduz uma série de riscos", disse o especialista ao iniciar a conversa.
Entre os desafios citados, está a alucinação – quando modelos de IA geram resultados incorretos ou enganosos, o que pode levar a impactos financeiros e reputacionais para organizações, sobretudo quando há fornecimento de informações incorretas a clientes.
Somam-se a isso riscos de segurança e privacidade, que surgem quando funcionários utilizam ferramentas de terceiros sem autorização, enviando dados críticos, como planilhas, arquivos, registros de clientes ou documentos internos. "Esses dados se tornam parte dos modelos de IA. Não tem como voltar atrás", alerta Ferland.
Dicas práticas para empresas
Organizações podem adotar estratégias de curto prazo, como identificar e autorizar ferramentas já integradas em suítes de escritório (como funções de resumo no Zoom, Teams ou Meet). Por serem serviços contratados e geralmente utilizados por grandes empresas, esses recursos apresentam risco gerenciável e não utilizam dados para fins de treinamento.
Outra orientação do especialista da Cloudflare diz respeito à construção de um plano orientado por dados. "O primeiro passo é sempre entender quem está fazendo o quê. Ou seja, saber quais ferramentas são usadas, por quem, em quais circunstâncias e com que frequência”.
A adoção de acordos comerciais, a partir de assinaturas pagas, também é recomendável ao empregar ferramentas como o ChatGPT. Segundo Ferland, isso permite ter mais controles e visibilidade. Já nas versões gratuitas, essas funcionalidades não estão presentes, e muitos dados acabam sendo compartilhados.
“Comece escolhendo as ferramentas autorizadas mais adequadas e amplie essa lista, com contratos adequados para apoiar os casos de uso mais comuns. Depois, analise em sua indústria se existem ferramentas de IA mais especializadas que possam ajudá-lo a evitar muitos desses riscos", ele orienta.
Vale ainda elaborar diretrizes concisas para conscientizar os funcionários sobre o que é autorizado e o que é estritamente proibido – por exemplo, não fazer upload de arquivos financeiros ou instalar navegadores não aprovados.
"Muitas pessoas estão se aventurando com a IA, quer você perceba ou não. Ter diretrizes claras, mesmo que em um primeiro rascunho imperfeito, de uma ou duas páginas, é um bom ponto de partida", afirma o especialista.
Navegadores com IA: a nova fronteira da segurança
Navegadores que utilizam inteligência artificial para automatizar e otimizar tarefas (como ChatGPT Atlas, da OpenAI, e Comet, da Perplexity), representam um desafio adicional. Ferland destaca que essas plataformas têm acesso irrestrito a todas as informações exibidas, incluindo dados bancários, e-mails, sinistros de seguro e informações privadas em portais internos das empresas.
"Esses dados não são necessariamente locais. Na verdade, muitos dos dados coletados por um navegador com inteligência artificial serão enviados para o agente de IA que está rodando na nuvem em algum outro lugar, possivelmente em outro país. Eles serão armazenados e analisados lá, e não no seu dispositivo. Isso cria mais um nível de risco", diz Ferland.
Na opinião do especialista, empresas devem evitar ou até mesmo banir o uso dessas ferramentas até que sua maturidade seja comprovada, o que se estima levar de dois a três anos.