
sdecoret - stock.adobe.com
La IA generativa descontrolada puede convertirse en un riesgo
En México, las empresas usan más de 60 apps de IAGen en promedio, pero 10 % de ellas involucran riesgos al permitir la carga de archivos sensibles, carecer de cifrado adecuado, usar datos ingresados para entrenar sus modelos o no cumplir con estándares de privacidad y autenticación.
La inteligencia artificial generativa (IAGen) está transformando la forma en que trabajamos, creamos y tomamos decisiones. En México, su adopción ha sido notable con el uso de herramientas como Grammarly y ChatGPT, por ejemplo, que recientemente se han convertido en parte del día a día de miles de profesionales. Sin embargo, esta revolución tecnológica también ha abierto la puerta a nuevos riesgos que muchas organizaciones aún no están preparadas para afrontar.
De acuerdo con el informe "The State of Generative AI 2025", elaborado por Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, el uso de IAGen en México ha crecido exponencialmente. El país se encuentra entre los más activos de América Latina, con un promedio de más de 60 aplicaciones de IAGen por organización. Lo preocupante es que, al menos, el 10 % de estas aplicaciones se consideran de alto riesgo, ya sea porque permiten la carga de archivos sensibles, carecen de un cifrado adecuado, utilizan los datos ingresados para entrenar sus modelos o no cumplen con los estándares básicos de privacidad y autenticación. Estas características aumentan significativamente la posibilidad de fuga de información, uso indebido de datos o exposición a contenido malicioso.

Uno de los principales retos es el fenómeno de la IA en la sombra, es decir, cuando los empleados utilizan herramientas de IA sin conocimientos ni aprobación del departamento de TI. Esto puede conducir a la exposición de información confidencial, incumplimientos regulatorios y pérdida de propiedad intelectual. Y no se trata de escenarios hipotéticos; basta con que un empleado copie fragmentos de código en una plataforma pública para pedir ayuda, o que un ejecutivo escriba una presentación estratégica con una IA sin saber que sus datos podrían ser almacenados o reutilizados por terceros.
Además, hemos comprobado que muchas de estas aplicaciones no cuentan con los controles de seguridad necesarios. Más del 70 % de los asistentes de escritura evaluados eran vulnerables a las técnicas de jailbreak, es decir, métodos que manipulan la IA para generar respuestas que normalmente se bloquearían, incluido el contenido inapropiado o riesgoso. En un entorno en el que la IA puede redactar correos electrónicos, generar contratos o incluso responder a los clientes, este tipo de fallos representan un riesgo real para la reputación y el funcionamiento de las empresas.
Por otro lado, los incidentes de pérdida de datos relacionados con IAGen se han duplicado con creces en lo que va de 2025, y ya representan el 14 % de todos los incidentes de seguridad en las plataformas SaaS. Esto incluye servicios ampliamente utilizados como el correo electrónico, el almacenamiento en la nube o las herramientas de colaboración, donde los datos empresariales circulan constantemente. La falta de visibilidad sobre qué herramientas se utilizan y cómo se comparten los datos es una de las principales vulnerabilidades a las que se enfrentan las organizaciones hoy en día.
En México, el uso de la IAGen no se limita a los sectores tecnológicos. Industrias como la manufactura, los servicios financieros, la atención médica y la educación también están integrando estas herramientas en sus operaciones diarias. Desde asistentes virtuales que ayudan a programar citas médicas, hasta plataformas que generan informes financieros automatizados, la IA está presente en procesos críticos. Esto hace aún más urgente contar con políticas claras de gobernanza, controles de acceso basados en el riesgo y soluciones que permitan el monitoreo de estas tecnologías en tiempo real.
La IAGen es una tecnología que seguirá expandiéndose porque su potencial es enorme, pero también lo son sus riesgos. Por eso, en economías como la mexicana, donde la transformación digital avanza a un ritmo acelerado, es fundamental que la seguridad no se quede atrás. Solo entonces podremos aprovechar todo el poder de la inteligencia artificial sin comprometer nuestros activos más valiosos.
Daniela Menéndez es country manager para México en Palo Alto Networks, donde anteriormente fue gerente de Canales. Su experiencia incluye haber sido gerente de ventas para México de Licencias OnLine, así como directora comercial de Afina, gerente de marca NetCom en Tallard Technologies y country manager de Allot Communications. Es bachiller en Desórdenes de Comunicación y Audiología por la Universidad de California en San Diego.