
Getty Images
Los equipos de plataforma recurren a DataOps y MLOps para respaldar la IAGen
La IAGen requiere una disciplina de datos más rigurosa que las formas anteriores de análisis, pero hay lecciones que los equipos de plataforma pueden aprender de los enfoques existentes.
Los primeros usuarios de DataOps se inspiraron en los principios de DevOps para ayudar a los científicos de datos a crear rápidamente valor comercial a partir de big data; a medida que las aplicaciones de IA generativa se generalizan, esa interacción entre disciplinas de TI está cerrando el círculo.
Al igual que con el desarrollo de software ágil y los métodos DevOps, las operaciones de datos buscaban derribar las barreras organizacionales y fomentar la colaboración entre las partes interesadas del negocio y los equipos de TI. Por lo tanto, ya se ha producido cierto intercambio de técnicas entre disciplinas. Los ingenieros de DevOps y de plataforma llevan años aplicando métodos desarrollados por profesionales de DataOps y operaciones de aprendizaje automático (MLOps) a los flujos de trabajo de AIOps y de observabilidad.
Pero ahora, la IA generativa está impulsando el análisis basado en datos cada vez más hacia el uso general de los usuarios comerciales, colocando la gestión y la gobernanza de datos al frente de las preocupaciones de las operaciones de TI empresariales.
La adopción de IA, incluyendo IAGen, se citó como el principal impulsor del aumento del uso de datos corporativos en un reciente estudio de mercado. De los 318 participantes en una encuesta realizada en junio de 2024 por el Grupo de Estrategia Empresarial de Informa TechTarget, el 56 % consideró la IA como la principal razón para tener más usuarios de datos corporativos en sus organizaciones.
La adopción de IA también genera un mayor escrutinio de la gobernanza y la seguridad, preocupaciones fundamentales para los principios de DataOps: el 83 % de los encuestados añadió nuevas funciones de gobernanza de datos o amplió las existentes –o ambos– durante el último año gracias a la IA.
Como ya han descubierto los primeros en adoptar AIOps y las herramientas de automatización de IA, la calidad y la integridad de los datos pueden ser clave para el éxito o el fracaso de estas iniciativas: el 70 % de los encuestados las clasificaron como de alta o muy alta prioridad para los proyectos de IA. La mayoría de los encuestados (el 51 %) indicó que aún no confía plenamente o desconfía ligeramente de la precisión de los datos utilizados en la toma de decisiones.

Secuencias de datos de IAGen vs. Secuencias de datos de ML
Para una empresa con experiencia en DataOps y MLOps, IAGen ha sido una nueva bestia en lo que respecta a la gestión de la calidad de los datos y la arquitectura de la canalización de datos.
"Prácticamente cualquier modelo interesante [de lenguaje extenso] no se entrenará únicamente con un flujo de datos", afirmó Stephen Manley, director de tecnología de Druva, empresa que comercializa una plataforma SaaS de resiliencia de datos. "Se implementarán múltiples flujos, lo que requiere, en mi opinión, un rigor mucho mayor que el que hemos aplicado en el ámbito del aprendizaje automático, donde solía tratarse de un conjunto más pequeño de datos de mayor intensidad".

Por ejemplo, el flujo de trabajo de aprendizaje automático (ML) de Druva procesa 100.000 millones de operaciones por hora, pero esa cantidad de datos no sería adecuada para los modelos de IAGen, afirmó Manley. Los datos de ML suelen utilizarse para detectar anomalías en una serie de eventos bien definidos; el entrenamiento de los grandes modelos de lenguaje que sustentan el asistente de IA Dru de Druva requirió el ajuste preciso de tres flujos de datos diferentes, con tasas de cambio generalmente más bajas para garantizar la consistencia.
Un flujo de datos de LLM consiste en la documentación de Druva; otro, en información sobre el marco de respuesta a incidentes de Mitre ATT&CK , que cambia con poca frecuencia. El tercer flujo de datos, actualizado con mayor frecuencia, contiene información de clientes utilizada para personalizar las respuestas de IA para cada cliente.
La integración de datos de clientes coloca a IAGen en Druva en una posición diferente a las aplicaciones anteriores de big data y ML, dijo Manley.
“En cuanto al aprendizaje automático, procesábamos metadatos internos, por lo que todo estaba sujeto a nuestra necesidad estándar de seguridad, pero todo era interno y nunca se veía externamente”, explicó. “Dado que la aplicación de IAGen se ve externamente, se necesita un flujo de trabajo de DataOps riguroso en cuanto a privacidad y seguridad”.
Para solucionar esto, los ingenieros de Druva integraron las secuencias de datos de IAGen en la infraestructura principal de seguridad informática de la empresa para funciones como el control de acceso basado en roles y la autenticación. La creación de la secuencia de datos de IAGen también presentó desafíos de escalabilidad, ya que Druva debe soportar 6.000 canales lógicamente separados –uno para cada cliente– dentro de este flujo de datos en constante evolución.
"DataOps y DevOps están separados… pero hay superposiciones. No es que no puedan aprender el uno del otro", dijo Manley. "Así que lo que aprendimos en DevOps es a contenerizarlo todo, a hacerlo prácticamente efímero. Lo vimos de la misma manera en nuestro flujo de datos, así que no estoy implementando infraestructura persistente, porque eso nos arruinaría si intentáramos hacerlo para 6.000 clientes".
Manley predijo que la profundización de las relaciones entre DevOps y DataOps continuará, ya que los datos generados por IA de los LLM de la empresa podrían reincorporarse a los sistemas de análisis y aprendizaje automático para probar los flujos de trabajo de datos. Los flujos de trabajo y los flujos de trabajo de IAGen también se volverán más complejos a medida que Dru actúe sobre los sistemas de los clientes en lugar de generar recomendaciones pasivas.
La orquestación del flujo de trabajo ayuda a las plataformas DataOps
Druva desarrolló sus propias secuencias de datos de aprendizaje automático hace años, basados en el almacenamiento de Amazon S3 y el formato de tabla Apache Iceberg, así como en código desarrollado internamente para la conversión de datos. Hasta ahora, la necesidad de la empresa de un control de versiones preciso de los datos y controles de calidad personalizados le ha impedido utilizar un producto comercial, afirmó Manley.
Para otras organizaciones, las herramientas de orquestación comerciales y de código abierto han resultado vitales para los ingenieros de plataformas que dan soporte a DataOps. Por ejemplo, el proyecto de flujo de trabajo como código de código abierto Apache Airflow utiliza un grafo acíclico dirigido (DAG) para construir sistemas sofisticados que organizan tareas y sus dependencias. Puede utilizarse como herramienta de flujo de datos, que se centra en cómo se mueven los datos a través de un sistema distribuido, incluyendo los prompts de IAGen. O puede funcionar como herramienta de flujo de trabajo, que se centra en cómo un objeto de datos específico progresa a través de una serie de cambios.
La orquestación del flujo de trabajo es la principal forma en que Black Crow AI, creador de una aplicación de análisis basada en IA para empresas de comercio electrónico, utiliza Airflow. Black Crow cuenta con un equipo de plataforma específico para DataOps que supervisa el desarrollo y la implementación de secuencias de datos para aprendizaje automático, IA predictiva e IA generativa. Airflow ayuda al equipo de la plataforma de datos a actuar como ingenieros de confiabilidad del sitio al automatizar partes del proceso de resolución de problemas de los canales de datos, según Will Norman, ingeniero sénior de Black Crow AI.

"[Se encarga de] la orquestación [del flujo de trabajo], pero también de las alertas. Si algo falla, se activa una alerta de PagerDuty para que quien esté de guardia pueda investigar el problema con el trabajo", explicó. "O si estos problemas se prolongan más de lo previsto, [se] activan alertas de acuerdo de nivel de servicio (SLA) para que podamos obtener información y empezar a investigar el motivo".
Hasta ahora, el mayor cambio impulsado por IAGen ha sido la importancia de la supervisión humana al trabajar con LLM, dijo Norman.
"Se pueden crear herramientas para generar código o contenido con IAGen, pero contar con alguien que las revise antes de su lanzamiento es sumamente útil", afirmó. "Desarrollar criterios de evaluación también es muy útil, y estos son aspectos que se podrían coordinar con Airflow [para garantizar] que se cumplan los criterios de evaluación".
Aquí, Black Crow puede tomar prestadas herramientas similares a las que el equipo de la plataforma de datos desarrolló para evaluar modelos de ML. "Tenemos trabajos que se ejecutan constantemente para verificar el rendimiento de nuestros modelos", dijo Norman. "Parte de nuestro reentrenamiento de modelos, que se ejecuta a diario, simplemente analiza el rendimiento del modelo y pregunta: '¿Ha habido degradación? ¿Necesitamos reentrenar estos modelos? ¿Hay algo que alguien deba revisar?'".
Como usuario frecuente de los servicios de AWS, el equipo de la plataforma de datos adoptó Amazon Managed Workflows para Apache Airflow (MWAA) en cuanto estuvo disponible, en 2020, para eliminar la carga de trabajo de administrar sus propios servidores.
Cuando su negocio y el entorno de Airflow crecieron, Black Crow recurrió a un servicio gestionado especializado de Astronomer que gestionaba mejor el escalado incremental y admitía las reversiones de actualizaciones, lo que había consumido mucho tiempo al equipo de la plataforma de datos que usaba MWAA.
La suite Astro de Astronomer admite la implementación automatizada de Airflow en contenedores, incluidas implementaciones efímeras para trabajos de prueba, junto con la integración directa en herramientas CI/CD que Norman dijo que planea evaluar para uso futuro.
Las herramientas DataOps se adaptan a la era de IAGen
Los equipos de plataforma han incorporado otras herramientas de automatización para dar soporte a las aplicaciones de IA, incluyendo marcos de orquestación de microservicios y utilidades de coreografía de microservicios.
Prefect, competidor de Apache Airflow y los proveedores de servicios gestionados asociados, promociona la orquestación de flujos de trabajo sin necesidad de un DAG. En junio, Prefect lanzó ControlFlow, un marco de Python de código abierto para flujos de trabajo de IA, anticipándose a la orquestación más compleja que exigirá la IA con agentes.
"Hemos descubierto que una de las maneras en que las personas pueden obtener resultados de mayor calidad es siendo muy estructurados y enseñando a la IA cómo es realmente un flujo de trabajo; dándole objetivos específicos que cumplir, de los cuales no podrá desviarse [hasta] que [lo haga correctamente]", declaró Jeremiah Lowin, fundador y director ejecutivo de Prefect, en una entrevista con Informa TechTarget Editorial en 2024.
"Hemos utilizado nuestra experiencia en flujos de trabajo para desarrollar un producto que controla agentes [de IA] y permite que las personas confíen en [que pueden] activar uno sin que salga corriendo a gritarle a los clientes, porque tiene un control muy estricto", señaló.
Flatiron Health, cliente de Prefect, aún no ha aplicado ControlFlow a los flujos de trabajo de IA de agentes, pero aún es pronto para ambas cosas, según Will Shapiro, jefe de IA y vicepresidente de ciencia de datos en la empresa de investigación biotecnológica.
"Estamos utilizando el diseño agéntico para trabajar en la creación de documentos científicos, y no es algo que necesitemos hacer ni siquiera semanalmente. El volumen no nos ha obligado a pensar en una orquestación más robusta en los sistemas de producción [aún]", dijo Shapiro durante una entrevista en 2024. "[Pero] podríamos empezar a utilizar enfoques agénticos en situaciones de mayor volumen que requieran una planificación más profunda de la orquestación".
Flatiron Health, que recopila y analiza datos de pacientes con cáncer que los investigadores pueden utilizar para mejorar los resultados oncológicos, logró multiplicar por diez sus conjuntos de datos mediante aprendizaje automático. Shapiro expresó su esperanza de que los LLM y la IA agéntica amplíen aún más el proceso de interpretación de historiales médicos electrónicos, que actualmente realizan humanos en Flatiron.
"Históricamente, hemos contratado a analistas humanos para que revisen y procesen manualmente los datos del gráfico, y hemos desarrollado políticas y procedimientos detallados sobre cómo extraer cada tipo de variable", explicó. "Hemos estado experimentando con la introducción de ese conjunto de instrucciones en un LLM y, luego, [con un modelo] para procesar las instrucciones y extraer los datos, y luego con otro para analizar los datos extraídos, identificar errores y, posteriormente, realizar un refinamiento rápido iterativo utilizando múltiples agentes".
Mientras tanto, Prefect puso orden en las prácticas MLOps de Flatiron al reemplazar un sistema de extracción, transformación y carga (ETL) desarrollado internamente, dijo Shapiro.
"El sistema ETL desarrollado internamente era bastante opaco y muy complejo desde el punto de vista de la integración, la interpretabilidad y la observación", afirmó. "Prefect ha sido excelente en la creación de observabilidad, reproducibilidad y estandarización del procesamiento de datos en general".
Desde entonces, Shapiro dejó Flatiron para irse a otra empresa, pero un portavoz de Flatiron dijo que no había habido ningún cambio significativo en el uso de Prefect e IA agéntica por parte de la empresa hasta fines de octubre de 2024.
SnapLogic agrega una aplicación de IAGen y creadores de agentes como servicio
SnapLogic, proveedor de plataforma de integración como servicio (iPaaS) fundado en 2006, ha desarrollado su negocio con utilidades prediseñadas alojadas en la nube que integran múltiples aplicaciones de software y sus datos asociados. Fue una evolución natural para la empresa comenzar a ofrecer herramientas automatizadas de bajo código/sin código para conectar los elementos de las aplicaciones de IAGen y los agentes de IA a medida que surgieron las LLM en los últimos dos años, según directivos de la empresa. Competidores en iPaaS como Boomi e Informatica también han incorporado integraciones de IAGen.
SnapLogic lanzó IAGen Builder en enero de 2023, que fue reemplazado por AgentCreator en octubre de 2024. AgentCreator expandió IAGen Builder para brindar soporte a los agentes, que son conjuntos autónomos de sistemas impulsados por IA que pueden tomar medidas para ejecutar flujos de trabajo.
No todas las empresas se sienten cómodas con una plataforma alojada en la nube, ni con la escala empresarial y las funciones de bajo código/sin código integradas en los productos iPaaS, que pueden tener un precio de escala empresarial, según Norman de Black Crow AI. Sin embargo, un cliente de SnapLogic puede afirmar que cuenta con algo que muchas otras empresas no tenían a principios de noviembre de 2024: aplicaciones de IAGen en producción.

"SnapLogic con AgentCreator nos permite pasar del concepto al prototipo, del desarrollo a la implementación con gran rapidez", afirmó Mike Wertz, líder de ingeniería de programas en Aptia Group US, una empresa de administración de beneficios y pensiones para empleados con sede en Boston. "Tradicionalmente, habríamos tenido que dedicar mucho tiempo a la programación; poder integrarlo en dos Snaps (conectores prediseñados) con una configuración muy limitada fue una excelente opción para nosotros".
Aptia ya era cliente de SnapLogic iPaaS para flujos de trabajo ETL antes de usar AgentCreator. El desarrollo más rápido de aplicaciones IAGen con la nueva herramienta agilizó el proceso de mejora y verificación de la calidad de los resultados de LLM, afirmó Wertz. Esto ayudó a Aptia a implementar la automatización de IAGen para resumir y organizar datos no estructurados de los documentos del plan de beneficios en su sitio web.
"[Anteriormente, eso significaba] que un analista necesitaba obtener los datos de la fuente, analizarlos de diversas fuentes, extraerlos, formatearlos y cargarlos. Estimamos que eso tardaba, como mucho, una hora", dijo Wertz. "Lo hemos reducido a solo un par de segundos. El proceso pasa por el modelo de lenguaje completo bastante rápido, SnapLogic se encarga del resto y lo carga en la fuente de datos, y listo".
Beth Pariseau, redactora senior de noticias de TechTarget Editorial, es una galardonada veterana del periodismo de TI que cubre DevOps. ¿Tiene algún consejo? Escriba un correo o contáctela en @PariseauTT.