arthead - stock.adobe.com

ChatGPT: La información que nunca debe compartir en esta herramienta

Conozca cinco tipos de datos que podría traerle problemas si los comparte con una herramienta de inteligencia artificial generativa, como ChatGPT.

El 52 % de los adultos estadounidenses utiliza modelos de lenguaje grandes (LLM) de IA como ChatGPT, y un tercio cree que ahora son “demasiado dependientes” de ellos para obtener respuestas, reveló un informe de la empresa de seguridad de aplicaciones, Indusface.

Dado que el 38 % de los empleados estadounidenses también admite compartir información laboral confidencial con herramientas de IA generativa (IAGen) sin el permiso de su empleador, surge la pregunta de hasta qué punto dependemos de la IAGen con nuestra información personal y privada.

Teniendo esto en cuenta, Indusface, investigó qué datos personales podrían estar compartiendo en exceso los colaboradores con los LLM y cuáles deberían ser los límites.

1. Archivos de trabajo, como informes y presentaciones

Una de las categorías más comunes de información compartida con la IAGen son los archivos y documentos laborales. Más del 80 % de los profesionales en las empresas de la lista Fortune 500 utilizan herramientas de IA, como ChatGPT, para ayudarles en tareas como refinar correos electrónicos, informes y presentaciones.

Sin embargo, el 11 % de los datos que los empleados pegan en ChatGPT son estrictamente confidenciales, como estrategias comerciales internas. Por lo tanto, se recomienda eliminar los datos sensibles de archivos como informes comerciales o presentaciones antes de introducirlos en ChatGPT, ya que los LLM conservan esta información de forma indefinida y podrían compartirla con otros usuarios si se les solicita.

2. Contraseñas y credenciales de acceso

Desde pequeños, se nos enseña a no compartir nuestras contraseñas con otras personas, por lo que recurrimos a notas, teléfonos o incluso a nuestra propia memoria para recordar la contraseña que elegimos. El 24 % de estadounidenses almacena sus contraseñas en una nota en su dispositivo, mientras que 18 % las guarda en un navegador de internet. Dado que los LLM suelen desempeñar ambas funciones, es importante recordar que no están diseñados con la privacidad en mente, sino con el propósito de aprender de lo que los usuarios introducen, las preguntas que hacen y la información que proporcionan.

3. Datos personales, como su nombre y dirección

Aunque esta “información” pueda parecer insignificante en el día a día, compartir datos personales como su nombre, dirección y fotos reconocibles le deja vulnerable al fraude. Es fundamental evitar proporcionar a los LLM información que pueda permitir a los estafadores suplantar su identidad o crear deepfakes, que muestran la imagen falsa de una persona diciendo o haciendo algo que nunca han dicho o hecho.

Si se diera cualquiera de estas situaciones, podría dañar tanto la reputación personal como la profesional. Si se compartiera la información anterior sobre un compañero de trabajo sin su conocimiento y se produjera un fraude o un deepfake, se generaría una gran desconfianza y llevaría a acción legal contra la empresa.

Por eso, la alfabetización y la educación en materia de IAGen son fundamentales para las operaciones empresariales en la era de la tecnología.

4. Información financiera

Los modelos de lenguaje grande (LLM) pueden ser una herramienta útil para explicar temas financieros o incluso realizar cierto nivel de análisis financiero, pero nunca deben utilizarse como herramienta para tomar decisiones financieras empresariales.

Los LLM carecen de conocimientos numéricos, al ser principalmente una herramienta de procesamiento de texto, por lo que introducir cifras financieras en ChatGPT probablemente generará errores y estrategias empresariales potencialmente perjudiciales. Lo más recomendable es utilizar los LLM como soporte para comprender las finanzas, en lugar de como herramienta para calcular soluciones o tomar decisiones financieras importantes.

5. Códigos base de la empresa y propiedad intelectual (PI)

Los desarrolladores y los empleados recurren cada vez más a la IAGen para obtener ayuda con la codificación. Sin embargo, compartir los códigos base de la empresa puede suponer un riesgo de seguridad importante, ya que se trata de la propiedad intelectual fundamental de un negocio.

Si se pegan códigos fuente propietarios en plataformas de IAGen, estos pueden almacenarse, procesarse o incluso utilizarse para entrenar futuros modelos de IA, lo que podría exponer secretos comerciales a entidades externas.

Investigue más sobre Inteligencia artificial y automatización