madgooch - stock.adobe.com

El futuro de las TI no tiene un modelo único

Nube, centros de datos locales, borde o entornos híbridos son modelos de entornos que deben alinearse con las necesidades reales de los negocios para lograr operaciones flexibles y resilientes.

Durante años, la estrategia de TI se planteó como una decisión sencilla: migrar a la nube o permanecer on-premises. El enfoque cloud-first se convirtió en la recomendación predeterminada y, en muchas organizaciones, no fue cuestionado. Hoy, esa visión comienza a desmoronarse.

El aumento de los costos en la nube, las interrupciones de alto perfil, las limitaciones de rendimiento y una creciente dependencia de datos en tiempo real han obligado a los líderes de TI a adoptar una perspectiva más matizada. La realidad es que las decisiones modernas de infraestructura ya no son binarias, y el futuro del TI no es nube versus instalaciones locales. Es una combinación del borde, la nube y los modelos híbridos elegidos deliberadamente según la carga de trabajo, el riesgo y las necesidades del negocio.

Los límites de pensar solo en la nube

Las plataformas de nube han generado un enorme valor agregado. Ofrecen escala, flexibilidad y velocidad que eran difíciles de lograr en centros de datos tradicionales. Para nuevas iniciativas, casos de uso aún no probados y analítica a gran escala, la nube sigue siendo una opción poderosa.

Oscar Ponce

Sin embargo, muchas organizaciones están descubriendo que un enfoque exclusivamente basado en la nube conlleva inconvenientes difíciles de ignorar:

  • Los costos pueden crecer rápidamente a medida que las cargas maduran y aumentan los volúmenes de datos.
  • El rendimiento puede verse afectado cuando las aplicaciones dependen de acceso constante y de baja latencia.
  • La confiabilidad también es un factor: la conectividad a internet y los servicios en la nube son altamente disponibles, pero no infalibles.

Cuando ocurren fallas, el impacto es inmediato y, a menudo, generalizado. Lo vimos con claridad en octubre, cuando una interrupción importante en Amazon Web Services (AWS) afectó aplicaciones y servicios en múltiples industrias. Eventos como este evidencian cuánto depende nuestro mundo digital de un pequeño número de proveedores de nube. Cuando uno enfrenta un problema, los efectos se sienten mucho más allá de una sola organización o región.

Las consecuencias para los negocios son reales con transacciones detenidas, pérdida de ingresos, clientes frustrados y confianza que tarda en recuperarse. Estos incidentes son un recordatorio práctico de que depender completamente de la nube para aplicaciones críticas puede exponer a las organizaciones a riesgos fuera de su control.

El edge computing no es solo IoT

Uno de los mayores conceptos erróneos en TI hoy es pensar que la computación perimetral solo aplica a casos especializados de internet de las cosas (IoT). Muchas organizaciones asumen que, si no monitorean sensores o equipos industriales, la infraestructura de borde no es relevante para ellas.

En la práctica, el edge computing es infraestructura local diseñada para entornos más pequeños y distribuidos. Se trata de ejecutar aplicaciones localmente en lugar de enviar todo a la nube. El objetivo es acercar el cómputo y el almacenamiento a los usuarios, clientes o máquinas que generan los datos.

Tiendas minoristas, hospitales, plantas de manufactura y centros logísticos se benefician del procesamiento local:

  • El rendimiento mejora cuando las aplicaciones no dependen de un viaje de ida y vuelta a un centro de datos distante.
  • La confiabilidad aumenta cuando los sistemas críticos continúan operando durante interrupciones de red.
  • Los costos suelen ser más predecibles cuando grandes volúmenes de datos se procesan localmente en lugar de transferirse de manera continua.

Además, la infraestructura de borde se ha vuelto mucho más accesible. Ya no se requieren grandes racks de servidores o instalaciones especializadas, pues sistemas compactos y energéticamente eficientes pueden soportar despliegues de alta disponibilidad a una fracción del costo que muchos líderes de TI aún asocian con entornos on-premises.

El modelo híbrido como punto medio práctico

Para la mayoría de las organizaciones, la estrategia más efectiva no es elegir entre nube y borde, sino combinarlos. El modelo de TI híbrido permite ubicar las cargas donde tengan más sentido.

Así, aplicaciones críticas que requieren rendimiento predecible y alta disponibilidad pueden ejecutarse localmente, mientras cargas elásticas, analítica y procesamiento a gran escala pueden operar en la nube. La clave está en decidir de forma intencional, en lugar de adoptar un único modelo por defecto.

Los enfoques híbridos también ofrecen flexibilidad a medida que los casos de uso maduran. Muchos equipos inician proyectos en la nube para avanzar rápido y limitar la inversión inicial. A medida que esas cargas se vuelven esenciales para la operación diaria, acercarlas al borde puede reducir costos a largo plazo y riesgos operativos.

Así es como realmente evoluciona el TI: la experimentación temprana prioriza velocidad y agilidad; las cargas maduras priorizan eficiencia, confiabilidad y control.

Dimensionar correctamente infraestructura y hardware

Otro cambio importante es cómo las organizaciones piensan sobre el hardware. No todos los despliegues requieren servidores de gama alta o aceleradores especializados. En el borde, muchas cargas pueden ejecutarse eficazmente en sistemas compactos que equilibran rendimiento, consumo energético y costo.

El objetivo es dimensionar correctamente (right-sizing). La infraestructura debe ajustarse a los requerimientos reales de la carga, no anticipar todos los escenarios futuros posibles. Sobredimensionar incrementa costos y complejidad sin aportar valor inmediato, en tanto los despliegues ligeros –que escalan de forma incremental– suelen ofrecer mejores retornos, especialmente para organizaciones pequeñas y medianas.

Este enfoque también contribuye a objetivos de sostenibilidad: sistemas más pequeños consumen menos energía y son más fáciles de implementar en entornos con espacio y energía limitados.

IA y el argumento a favor de la inferencia híbrida

La inteligencia artificial está acelerando el movimiento hacia infraestructura híbrida. Los grandes modelos fundacionales tienen sentido en la nube, donde grandes proveedores de nube como Google, Microsoft Azure, NVIDIA y Oracle están invirtiendo fuertemente. El entrenamiento a gran escala es donde estas plataformas destacan.

La inferencia es diferente. Cuando las empresas buscan obtener valor en tiempo real de estos modelos, depender únicamente de la nube puede introducir latencia y riesgos de confiabilidad. Todos hemos experimentado sesiones que se interrumpen o tiempos de espera, incluso con herramientas como ChatGPT. Muchas organizaciones necesitan respuestas en tiempo real, rendimiento predecible y procesamiento local de datos. 

Un número creciente de equipos está adoptando un modelo de inferencia híbrida. Modelos más pequeños y específicos se ejecutan localmente para atender necesidades inmediatas. Cuando se requiere mayor contexto o análisis más profundo, las solicitudes se envían a la nube para procesamiento adicional. Este enfoque equilibra rendimiento, costo y flexibilidad, manteniendo la resiliencia.

Estrategia por encima de la simplicidad

El futuro de las TI no está definido por una sola arquitectura. El borde, la nube y los entornos híbridos son herramientas, no ideologías en competencia. La elección correcta depende de las características de la carga de trabajo, la madurez organizacional, los requisitos regulatorios y la tolerancia al riesgo.

Los líderes de TI que tendrán éxito en los próximos años irán más allá del pensamiento de “talla única” para evaluar dónde el rendimiento es más crítico, dónde se requiere escala y dónde la confiabilidad no puede comprometerse. Al alinear la infraestructura con las necesidades reales del negocio, las organizaciones pueden construir sistemas que sean tanto flexibles como resilientes.

Oscar Ponce es director territorial para la región de América Latina en StorMagic. Con más de 15 años de experiencia en TI, especializado en virtualización y almacenamiento de datos, ayuda a clientes y socios a mantener las aplicaciones y los datos críticos en funcionamiento en el perímetro y cerca de él. Anteriormente ocupó posiciones de Ventas en Spectra Logic y FreeWave Technologies.

Investigue más sobre Estrategias de TI