
Getty Images/iStockphoto
Cuatro lecciones en la nueva era del ciberdelito impulsado por IA
Los ciberataques han evolucionado rápidamente a medida que el uso de IAGen se ha generalizado. Un panel en la Conferencia RSAC 2025 compartió sus conocimientos de los últimos dos años.
La IA generativa ha transformado radical –y rápidamente– la forma en que los actores maliciosos planifican y ejecutan sus ataques. Ahora, los actores de amenazas pueden hacer más con menos recursos y menos tiempo.
Para mantener sus organizaciones seguras, los equipos de seguridad deben estar al tanto de cómo los atacantes utilizan IAGen y cómo mitigar dichas amenazas. Una forma de lograrlo es aprender del pasado. Un panel en la Conferencia RSAC 2025 compartió cuatro lecciones clave aprendidas desde la explosión del uso de IAGen, tras el lanzamiento de ChatGPT a fines de 2022:
- IAGen enriquece las capacidades de los atacantes.
- Las leyes actuales pueden aplicarse a los atacantes habilitados por IA.
- Todavía tenemos mucho que aprender.
- Han surgido mejores prácticas de mitigación de ataques basadas en IA.
1. IAGen enriquece las capacidades de los atacantes
Si bien IAGen aún no ha cambiado las tácticas de los atacantes, sí los está haciendo más eficientes.
"Actualmente, no vemos que los actores de amenazas utilicen la IA para algo que no podrían hacer con mayor lentitud por sí solos", afirmó Sherrod DeGrippo, directora de estrategia de inteligencia de amenazas en Microsoft. En la mayoría de los casos, añadió, los atacantes utilizan IAGen por las mismas razones que la mayoría de los profesionales –por ejemplo, para realizar investigaciones, mejorar las comunicaciones y traducir contenido–, solo que con malas intenciones.
Por ejemplo, Adam Maruyama, director de tecnología de campo para transformación digital e IA en el proveedor de ciberseguridad Everfox, afirmó que la IA ayuda a mejorar la credibilidad de las estafas. "Ya no se trata de que tu viejo amigo necesite de repente la información de tu cuenta bancaria. Es 'Hola, este es el preescolar de tu hijo', y es el nombre correcto del preescolar", explicó. "O 'Tuvimos una rotura en la tubería principal. Para leer más sobre ese incidente, haz clic en este enlace'. Y te redirige a una página con malware".
Además de hacer las estafas más creíbles, la IAGen también ha ayudado a aumentar el volumen de ataques. Maruyama afirmó que, desde la introducción de ChatGPT en 2022, el volumen de correos electrónicos de phishing ha aumentado un 1.000 % y la cantidad de dominios relacionados con el phishing ha aumentado un 120 %, lo cual probablemente no sea casualidad.
2. Utilizar las leyes y regulaciones vigentes contra los ataques de IA
"El uso de IA, por supuesto, en sí mismo no constituye un delito. Su uso para facilitar la comisión de delitos sigue formando parte de la conducta delictiva subyacente que puede ser perseguida", afirmó Jacqueline Brown, socia del bufete de abogados Wiley Rein LLP.
Esto significa que las leyes existentes, como las disposiciones civiles, la Ley de Abuso y Fraude Informático y las leyes de derechos de autor y marcas registradas, se pueden utilizar para procesar a los atacantes que utilizan IA para delitos, incluido el robo de identidad, el fraude electrónico y las violaciones de sanciones.
Por ejemplo, Brown afirmó que el gobierno ha observado un aumento en el número de casos de fraude informático contra trabajadores remotos en la República Popular Democrática de Corea (RPDC). Se trata de estafas en las que los atacantes utilizan inteligencia artificial para mejorar documentos de identidad y perfiles de LinkedIn con el fin de engañar a organizaciones estadounidenses para que los contraten como trabajadores remotos. Los empleados de la RPDC pueden entonces contribuir a la financiación de programas nucleares o evadir sanciones. En diciembre de 2024, un tribunal federal de San Luis acusó formalmente a 14 ciudadanos de la RPDC de fraude electrónico, blanqueo de capitales y robo de identidad.
En otro ejemplo de litigio reciente, la Unidad de Delitos Digitales de Microsoft emprendió acciones legales en febrero de 2025 contra cuatro actores de amenazas en Irán, el Reino Unido, China y Vietnam. La compañía alegó que los atacantes eran miembros de la red global de ciberdelincuencia Storm-2139 y que su uso de los servicios IAGen de Microsoft infringía la política de uso aceptable y el código de conducta de la compañía.
3. Todavía tenemos un largo camino por recorrer
Cynthia Kaiser, subdirectora adjunta de la División Cibernética del FBI, afirmó que los esfuerzos actuales del gobierno para contrarrestar las campañas adversarias se basan principalmente en la criticidad o el alcance del objetivo, no en métodos de ataque novedosos, como la IA. Queda por ver si esto cambiará con el tiempo; es decir, si el uso malicioso de la IA, por sí solo, daría lugar a una investigación.
Maruyama también señaló que la fuga de datos ha sido una preocupación desde el inicio de IAGen; las empresas no quieren compartir su información confidencial con modelos de lenguaje a gran escala (LLM) públicos. La solución inmediata, afirmó, es que las organizaciones creen modelos privados internos para saber qué datos les suministran. "Todo eso está genial", dijo, "excepto que has creado una joya de la corona para tu adversario".
Por ejemplo, un atacante podría solicitar al LLM la API de la nómina de la empresa o usarla para exfiltrar propiedad intelectual. "A menos que se cuente con las medidas de seguridad adecuadas para esa IA, esa información se filtrará sin más", añadió.
Otro punto central que surgió es la necesidad de leyes específicas para la IA. No existen leyes federales integrales de gobernanza de la IA. Esto no significa que la IA no esté regulada, afirmó Brown, sino que ha resultado en leyes fragmentadas y superpuestas a nivel federal, estatal y sectorial.
Por ejemplo, Brown señaló que el año pasado se propusieron más de 700 leyes estatales específicas para la IA, y 40 estados tienen leyes pendientes, con California y Colorado a la cabeza. Además, 34 estados tienen leyes que penalizan los deepfakes, y cuatro estados las incorporaron el mes pasado. La Ley Take It Down, que penaliza el uso no consentido de deepfakes sexualmente explícitos, fue aprobada por el Senado de Estados Unidos en febrero y por la Cámara de Representantes el 28 de abril. Brown afirmó que se considera la primera ley importante que aborda los daños de la IA.
4. Mejores prácticas para mitigar los desafíos de seguridad de la IA
El panel concluyó compartiendo las siguientes prácticas recomendadas que han surgido en los últimos dos años y que mitigan los ataques basados en IA y ayudan a garantizar el uso seguro de la IA en las empresas:
- Usar la IA para defenderse de ella. DeGrippo destacó la capacidad de la IA para mejorar la velocidad de detección de anomalías y su importancia en la revisión de código, por ejemplo, para encontrar credenciales codificadas. Maruyama sugirió usar la IA para detectar usuarios maliciosos y monitorear la IA en las redes empresariales.
- Crear una lista de materiales de IA. Para crear una AIBOM “necesitará una lista de todos sus proveedores de IA, dónde se distribuye esa IA en toda su organización y cómo extraerla si surge algún problema y necesita salir de su entorno”, explicó DeGrippo. Al igual que una lista de materiales de software, las AIBOM incluyen información sobre todos los componentes de IA propietarios y de código abierto utilizados en el desarrollo, la capacitación y la implementación de un sistema de IA.
- Siga las mejores prácticas de seguridad. Los ataques basados en IA han puesto de relieve la importancia de reforzar los fundamentos de seguridad, en concreto los siguientes:
- Requerir autenticación multifactorial.
- Utilizar el modelo de seguridad de confianza cero.
- Realizar capacitaciones periódicas sobre concientización sobre seguridad para educar a los usuarios sobre el uso seguro de la IA y cómo detectar ataques basados en IA.
- Manténgase al día con las leyes y regulaciones. Brown señaló que las organizaciones deben monitorear el panorama legal y regulatorio de la IA, ya que evoluciona rápidamente. Las organizaciones deben adaptarse a las regulaciones de IA cambiantes y emergentes, comprender cómo se vinculan las leyes de IA con las leyes de privacidad y desarrollar un marco de gobernanza de la IA.
- Siga prácticas responsables de desarrollo e implementación de IA. El desarrollo y las pruebas seguros son cruciales. Microsoft, por ejemplo, cuenta con un equipo rojo de IA que prueba sus modelos de IA para detectar comportamientos maliciosos. También utiliza un programa de recompensas por errores para encontrar vulnerabilidades en sus productos de IA. Maruyama también señaló que es fundamental ser selectivo con los datos que las organizaciones proporcionan a sus LLM y probarlos para garantizar que no divulguen demasiada información inadvertidamente.
Sharon Shea es editora ejecutiva del sitio SearchSecurity de Informa TechTarget.