Getty Images/iStockphoto
Roban 150 GB de datos al gobierno mexicano usando IA generativa
Un cibercriminal utilizó Claude, una herramienta semejante a ChatGPT, para robar datos del gobierno mexicano, confirma la firma de seguridad ESET.
El miércoles 27 de febrero se dio a conocer que un hacker había manipulado la herramienta de inteligencia artificial generativa Claude, desarrollado por Anthropic, para lanzar un ataque a múltiples dependencias del gobierno mexicano.
El hackeo, según explica un artículo publicado por Bloomberg, se extendió durante aproximadamente un mes y permitió extraer 150 GB de datos sensibles, incluidos registros fiscales, padrones electorales, credenciales de empleados públicos y documentos de organismos estatales y municipales.
“Los modelos de IA pueden ser sensibles a ataques de usuarios malintencionados que, a través de la manipulación de comandos, pueden explotar vulnerabilidades para alterar su comportamiento y lograr instrucciones peligrosas. Cada vez es más frecuente que los ciberdelincuentes usen la IA para crear amenazas más sofisticadas e impulsar sus campañas de ingeniería social”, explicó David González, investigador de seguridad de ESET.
Cómo se llevó a cabo la intrusión
El artículo de Bloomberg detalló que el atacante empleó una serie de prompts redactados en español para convencer al modelo de que actuara como un “hacker de élite”. Si bien los primeros intentos fueron detectados y bloqueados por la herramienta, el cibercriminal logró realizar un jailbreak luego de varios intentos y así eludir las barreras de seguridad de ese modelo de inteligencia artificial.
Superadas esas limitaciones, Claude generó instrucciones detalladas para:
- identificar vulnerabilidades en redes gubernamentales,
- generar scripts de explotación,
- automatizar el robo de información,
- planificar movimientos laterales,
- elaborar comandos listos para ejecutar en sistemas comprometidos.
La investigación mostró que el hacker se valió de ChatGPT como apoyo adicional para refinar comandos y ajustar técnicas para lograr que Claude hiciera lo que le pedía, según el análisis de Gambit Security. El resultado fue el robo de aproximadamente 195 millones de registros fiscales, información del padrón electoral, y credenciales y datos de empleados públicos.
Anthropic confirmó que interrumpió la actividad, prohibió las cuentas involucradas y reforzó los controles de su modelo más reciente: Claude Opus 4.6, diseñado para detectar intentos de ataques. OpenAI también afirmó haber identificado y bloqueado usos indebidos relacionados.
“La creciente digitalización en México exige una protección de datos más sólida. Ante la rápida evolución de las amenazas digitales, es urgente que todos los sectores actualicen y refuercen sus protocolos de seguridad informática”, comentó González.
El investigador señaló que herramientas como Claude Code pueden convertir a un atacante sin experiencia en un operador capaz de actuar al ritmo y escala de un grupo criminal organizado. En paralelo, la IA también está fortaleciendo las defensas, permitiendo detectar ciberataques potenciados por modelos generativos.
Un ejemplo reciente, descubierto por ESET Research, es PromptSpy: un malware para Android distribuido principalmente en Argentina mediante una aplicación falsa. Este software utiliza el modelo Google Gemini para analizar en tiempo real lo que aparece en pantalla, manipular la interfaz, evitar su cierre y habilitar el control remoto a través de un módulo VNC. Anteriormente, ESET ya había identificado un ransomware impulsado por IA en una prueba de concepto.
“Este caso demuestra que la inteligencia artificial es más que solo una herramienta para la productividad, y se ha convertido en un componente capaz de amplificar de manera drástica las capacidades ofensivas de los ciberdelincuentes”, resaltó David González.