
Getty Images
¿Es seguro utilizar DeepSeek en su empresa?
El proveedor de inteligencia artificial ha ganado popularidad con su modelo de razonamiento. Sin embargo, en función de las tensiones geopolíticas y las pruebas de seguridad, existen dudas sobre si las empresas deberían usarlo.
La startup china de inteligencia artificial generativa DeepSeek ha tenido éxito en las últimas semanas desde que lanzó su nuevo modelo de razonamiento DeepSeek-R1. Sin embargo, ha enfrentado desafíos que han llevado a algunos expertos en inteligencia artificial a cuestionar si el uso del modelo es seguro para las empresas.
DeepSeek también sufrió ataques maliciosos a gran escala el 27 de enero que lo obligaron a limitar el registro de usuarios. Informes recientes revelaron que DeepSeek había sufrido múltiples ataques DDoS desde que lanzó el modelo el 20 de enero. Los ataques DDoS son ciberataques que interrumpen el tráfico a un servidor, haciéndolo inaccesible.
Los ataques por sí solos resaltan las preocupaciones sobre si la tecnología del proveedor es segura, y las empresas deben ser cautelosas, dijo Bradley Shimmin, analista de Omdia, una división de Informa TechTarget.
"No inicien sesión en DeepSeek, simplemente no lo hagan", dijo Shimmin. "Parece que necesitan demostrarnos que pueden proteger sus servicios".
La startup sorprendió a las comunidades tecnológicas occidentales y del Lejano Oriente cuando su modelo de peso abierto DeepSeek-R1 desencadenó una ola tan grande que DeepSeek pareció desafiar a Nvidia, OpenAI e incluso al gigante tecnológico chino Alibaba.
Días después del lanzamiento de DeepSeek-R1, el precio de las acciones de Nvidia se desplomó en el mercado de valores de Estados Unidos. DeepSeek reemplazó a ChatGPT de OpenAI como la aplicación gratuita más descargada en la App Store de Apple. En respuesta, Alibaba lanzó su último modelo Qwen 2.5 Max un día antes de las vacaciones del Año Nuevo chino, lo que muestra el pánico que DeepSeek provocó incluso en China.
Datos y China
Además de la incapacidad de proteger sus servidores, el hecho de que DeepSeek sea un proveedor chino que tiene que cumplir con la Ley de Protección de Información Personal de China también es preocupante, según la directora ejecutiva y cofundadora de Nemertes, Johna Till Johnson.
La PIPL regula el manejo de la información personal y se aplica a organizaciones e individuos que procesan información de identificación personal, tanto dentro como fuera de China. También permite al gobierno chino acceder y examinar datos en poder de empresas dentro de su jurisdicción en circunstancias específicas.
Como proveedor de inteligencia artificial y nube, DeepSeek recopila datos de los usuarios, como uso, indicaciones e información sobre las parejas de los usuarios. "Si inicias sesión desde Google, obtiene todo de Google; está legalmente permitido hacerlo y todo eso se queda en China", dijo Shimmin.
Debido a esto, Johnson dijo que las empresas deberían evitar los sistemas y herramientas de inteligencia artificial de DeepSeek. "Cualquier empresa que por cualquier razón considere que está trabajando con algún tipo de información confidencial, lo que prácticamente hacen todas las empresas, no debería utilizar una herramienta que automáticamente envíe esos datos a lo que en Estados Unidos se considera un estado-nación hostil", afirmó. "Yo no me acercaría a eso".
Sin embargo, los argumentos sobre la fuga de datos y su uso también pueden aplicarse a otros proveedores de IA como OpenAI, dijo Tim Dettmers, científico investigador del Instituto Allen de IA, un laboratorio de investigación de IA sin fines de lucro. "Si les envías los datos del usuario, los utilizarán para mejorar el modelo", dijo Dettmers.
Además de la posibilidad de fuga de datos a China, el modelo DeepSeek-R1 fue entrenado con una cosmovisión china, lo que genera preocupaciones debido al gobierno autoritario del país y las incursiones bien documentadas en la privacidad de sus ciudadanos. "Es compatible con la visión del mundo del gobierno chino", dijo Mike Mason, director de inteligencia artificial de la consultora de inteligencia artificial y TI Thoughtworks. El modelo responderá en función de su visión del mundo si se le formula una pregunta en particular, dijo.
"Dependiendo del caso de uso, es posible que le preocupe el sesgo cultural o de cosmovisión que se da allí", continuó Mason. "Si lo está utilizando para generar código de programa de software, tal vez no le importe".
Sin embargo, Dettmers dijo que es demasiado pronto para conocer completamente el proceso de razonamiento del modelo. "Es algo que tenemos que resolver y, como DeepSeek es abierto, ahora podemos hacerlo", afirmó. "Si compartes cosas abiertamente, puedes averiguar rápidamente cómo hacerlas seguras, pero eso significa que al principio es una especie de período en el que las cosas están menos alineadas".
Mientras tanto, OpenAI, con cuyo modelo o1 se ha comparado DeepSeek-R1, es reservado sobre cómo piensan sus modelos, añadió Dettmers.
Los modelos de código abierto están orientados a lo que las empresas quieren, modelos que puedan controlar.
DeepSeek no respondió de inmediato a la solicitud de comentarios de Informa TechTarget.
Fallas en las pruebas de seguridad
A pesar de la estructura de código abierto de DeepSeek, el modelo R1 ha fallado en algunas pruebas de seguridad, lo que refuerza el argumento de que las empresas deberían mantenerse alejadas.
Por ejemplo, investigadores de la Universidad de Pensilvania y del proveedor de comunicaciones digitales Cisco descubrieron que R1 tenía una tasa de éxito de ataque del 100 % cuando se probaba contra 50 mensajes aleatorios que abarcaban seis categorías de comportamientos dañinos, como delitos cibernéticos, desinformación, actividades ilegales y daños generales. El modelo no bloqueó ninguno de los mensajes dañinos, según los investigadores.
Además, Chatterbox Labs, un proveedor especializado en la medición cuantitativa del riesgo de la IA, utilizó su plataforma AIMI, una herramienta automatizada de pruebas de seguridad de la IA, para probar DeepSeek-R1 en categorías como fraude, incitación al odio, actividad ilegal, seguridad y malware. DeepSeek-R1 no pasó las pruebas de seguridad en ninguna de las categorías.
Sin embargo, Chatterbox comparó los resultados de DeepSeek con los de Google Gemini 2.0 Flash –el modelo de razonamiento de Google– y OpenAI o1-preview. Gemini 2.0 Flash también falló la prueba de seguridad, y el modelo OpenAI sólo la aprobó en tres categorías. "Sin embargo, lo que queremos transmitirles a las organizaciones es que deben probar estas cosas", afirmó Stuart Battersby, director de tecnología de Chatterbox Labs. "No importa qué modelo utilicen. No pueden confiar en que esas cosas sean seguras".

Utilizar un tercero
Algunos expertos en IA han sugerido que podría ser mejor acceder a DeepSeek mediante un servicio de alojamiento de terceros. "Puede optar por proveedores de alojamiento que lo alojen en Estados Unidos", dijo Shimmin. AWS, Microsoft Azure y otros alojan el modelo en sus plataformas. "Si utiliza estos modelos, opte por un proveedor de nube de confianza".
La distinción entre ejecutar el modelo por sí solo y utilizar un proveedor de alojamiento confiable es significativa, dijo Mason. "Si va a, digamos, AWS Bedrock, y usa DeepSeek en Bedrock, ya no está enviando sus datos a China", dijo, refiriéndose a la plataforma de aprendizaje automático e inteligencia artificial generativa de Amazon.
Sin embargo, las empresas aún deben tomar precauciones independientemente del medio que utilicen para acceder al modelo. "Cualquier modelo que decida utilizar, debe someterlo a las pruebas que planteo para las prácticas de inteligencia artificial responsables", dijo Shimmin. "¿Es seguro? ¿Puedo protegerlo? Si alguien intenta desbloquear mi modelo, ¿tiene protecciones incorporadas?".
Probar el modelo una vez tampoco es suficiente porque los modelos cambian e iteran continuamente, dijo Battersby. "Para llegar a un punto que sea seguro para su organización, es necesario realizar pruebas iterativas y continuas, actualizar sus barreras de protección, actualizar sus modelos [y] adaptarse a cualquier cambio que se realice externamente en su organización", afirmó.
Esther Shittu es una escritora de noticias y presentadora de podcasts de Informa TechTarget que cubre software y sistemas de inteligencia artificial.