La nube a hiperescala no tiene por qué ser tan costosa: Vultr

El auge de la IA, y el aumento de procesos de cómputo que conlleva, está llevando a pasar de la era de las aplicaciones nativas de nube hacia la edad de las apps nativas de IA, que requiere el soporte de una nube renovada, afirma Vultr.

Autodefinida como “el hiperescalador alternativo”, Vultr es una empresa privada de nube que ofrece soluciones de infraestructura como servicio, las cuales incluyen clusters de GPU de NVIDIA para cargas de IA, a las empresas de América Latina.

La plataforma, lanzada en 2014, opera a la misma escala global que los tres grandes hiperescaladores –Amazon Web Services, Google Cloud Platform y Microsoft Azure–, con 32 regiones operativas en todo el mundo, y centros de datos en colocación ubicados en São Paulo, Santiago y Ciudad de México, aunque esperan añadir pronto dos más en Bogotá y Panamá.

“Vultr ofrece infraestructura central como servicio. Eso incluye todo su cómputo principal en la nube, las máquinas virtuales que los desarrolladores usan para crear, desarrollar e implementar aplicaciones nativas de la nube, e incluye todas sus GPU en la nube. Somos el único proveedor que ofrece GPU NVIDIA y procesadores AMD de primera línea en todas nuestras regiones operativas globales. Eso incluye nuestro recientemente anunciado soporte Blackwell para NVIDIA con la disponibilidad de nuestras DGX B200, y la última línea Instinct de AMD, la MI325X”, detalló Kevin Cochrane, director de Márketing de Vultr.

Kevin Cochrane

El ejecutivo comentó que la empresa cree en democratizar el acceso a una computación en la nube de clase mundial desde cualquier ubicación, por lo que apuesta por una relación precio-rendimiento en su portafolio distinta a la de los grandes proveedores de nube del mercado. “En comparación con los hiperescaladores tradicionales, tenemos el mismo rendimiento, el mismo alcance, la misma seguridad y el mismo cumplimiento normativo, pero somos entre un 50 % y un 90 % más económicos”, resaltó.

Presencia en el mercado latinoamericano

Kevin Cochrane explicó que Vultr llegó al mercado de América Latina prácticamente “de boca en boca”. Fundada por un grupo de ingenieros, la empresa atiende la región desde Fort Lauderdale Beach, en el sur de Florida (EE.UU.), sin necesidad de una oficina física. De hecho, apenas durante el primer trimestre de 2025 empezaron a desarrollar sus áreas de Ventas y Márketing.

“Queremos abrir oficinas en São Paulo y Ciudad de México”, comentó Cochrane, porque “es muy importante estar físicamente presente. No puedes conocer realmente el mercado a menos que estés de hecho en él. Además, esperamos abrir un centro de datos en Latinoamérica, pero no puedo darte tiempos ni disponibilidad. Ya hemos identificado dónde necesitamos ubicar nuevos centros de datos y, una vez que superemos la inversión de CAPEX que hicimos en GPU, comenzaremos a liberar recursos para construir nuevos centros de datos”, declaró.

Además de su portafolio de IaaS, la plataforma buscará ayudar a las empresas latinoamericanas a enfrentar la falta de visibilidad y el alto costo y las limitaciones de la conectividad al trabajar con entornos de nube. Frente a ello, la estrategia de Vultr es ofrecerle a los clientes de la región servicios de primera clase, aprovisionando infraestructura de última generación localmente, en Ciudad de México, São Paulo y Santiago, entre otras ciudades en las que esperan tener presencia a través de acuerdos de joint venture. “Cuando hay demanda, la satisfacemos de inmediato y enviamos capacidad adicional a la región. Esto forma parte de nuestro compromiso para garantizar que, al lanzar un servicio, siempre esté disponible para Latinoamérica”, subrayó. El objetivo es “impulsar los ecosistemas digitales en todas partes por igual”.

Los servicios de Vultr pueden contratarse de manera independiente, pero también pueden integrarse como parte de una gestión de múltiples nubes utilizando API y plantillas de Terraform, que funcionan como infraestructura como código. “Las mismas API que se utilizan para activar servicios en Amazon o Google se utilizan para activar servicios en Vultr. (…) Ejecutas una plantilla que dice: ‘Activa los servidores 123, llama a Amazon; activa los servidores 456, llama a Vultr’. Es muy simple”, señaló el director de Márketing de Vultr.  

“Incluso hemos visto que la gente que tiene una relación, por ejemplo, con AWS para su pila central de computación en la nube, usa Vultr como una extensión específicamente para el componente de GPU”, comentó.

La IA está cambiando el escenario de nube

La adopción cada vez mayor de herramientas de inteligencia artificial no solo está poniendo presión en los centros de datos locales, sino también en los proveedores de infraestructura como servicio.

“Se trata de una reestructuración completa de la infraestructura de la nube. Desde cómo se construyen los centros de datos, los racks y la red, todo es radicalmente diferente y cambia continuamente a medida que avanzamos hacia las sucesivas generaciones, como las arquitecturas Blackwell, Reuben, etc. de NVIDIA. Eso también nos obliga a replantearnos radicalmente la arquitectura de aplicaciones”, afirmó Kevin Cochrane.

Para el ejecutivo, esta evolución significa un cambio en los principios de la ingeniería nativa de nube que se ha venido desarrollando durante los últimos diez años. “Pasamos 10 años desarrollando esta noción de una pila de ingeniería nativa de la nube, [con una] plataforma de desarrollo interna que otros ingenieros nativos de la nube pueden usar. Pero ahora se tiene toda esta IA, y toda esa pila de aplicaciones –que solía ser una arquitectura de red muy específica y CPU– tiene que extenderse. Ahora hay GPU adicionales; hay un clúster de Kubernetes separado ejecutándose sobre esas GPU; hay algunos requisitos de red adicionales; y el almacenamiento tiene que estar altamente optimizado. Y ahora necesitas una conexión directa a tu centro de datos porque estás transmitiendo datos operativos en tiempo real a tus clústeres de GPU”, refirió Cochrane.

Todo esto llevará al surgimiento, dijo, de un nuevo concepto llamado “ingeniería nativa de IA”, orientada hacia las aplicaciones nativas de IA y, particularmente, la IA agéntica. “Esto es lo que hemos estado construyendo –e intentando ser pioneros–, esta nueva pila de plataforma para soportar la IA agéntica”, comentó Cochrane. “Por eso, a veces se refieren a nosotros como una ‘Neo Cloud’ o un proveedor de GPU como servicio, pero no es así. Nosotros no solo alquilamos GPU: tenemos toda una plataforma para desarrolladores que construyen apps de IA”, especificó.

Soberanía de datos y nube soberana

El mayor uso de la IA trae consigo temas espinosos como el de la privacidad de los datos y su soberanía. En el caso de Vultr, Kevin Cochrane declaró que “la empresa se creó con la residencia y la soberanía de datos en mente. Cualquier bit en un contenedor en la Ciudad de México, o en cualquier servicio, Vultr no puede acceder, manipular o mover ninguno de esos datos. Están completamente aislados y bajo el control directo de sus dueños. Tenemos niveles de cumplimiento muy estrictos”.

“Somos el único proveedor que puede tomar nuestro plano de control global, clonarlo en una región, dividir los recursos, aislarlos y desvincular completamente cualquiera de nuestras regiones operativas del hub global. Eso significa que [la nube que ofrecemos] es totalmente soberana, está bajo el control total de la entidad nacional con la que se establecemos el joint venture. Se hace como joint venture porque el control jurisdiccional también debe estar dentro del propio estado-nación, por lo que se hace como una subsidiaria independiente de la cual poseemos una parte”, refirió el ejecutivo. Sin embargo, la falta de regulaciones bien establecidas sobre el tema en todos los países de América Latina sigue siendo un desafío.

Respecto al tema de la ciberseguridad y la confianza de la plataforma, el experto destacó que su postura de cumplimiento “es de primera categoría, y tenemos todas nuestras certificaciones SOC, NIST e ISO exactamente igual que una empresa de hiperescala tradicional”, y subrayó el hecho de que cuentan con una política estricta de confianza cero en toda su arquitectura.

“Tenemos más de un cuarto de millón de clientes en 185 países, así que estamos bajo ataques constantemente, y no solo por parte de estados-nación. Por eso, contamos con muchísimas automatizaciones y una política de confianza cero; cualquier agente anómalo es expulsado de nuestro sistema y luego tiene que demostrar que no son malos actores. Si [hay alguna acción extraña], lo detectamos un milisegundo después y bloqueamos ese servidor, simplemente lo apagamos, no importa quién seas”, remarcó Kevin Cochrane.

Gestión energética y sostenibilidad

Aunque Vultr no tiene aún centros de datos propios en América Latina, Kevin Cochrane indicó que la empresa trabaja muy de cerca con los operadores de los centros de datos de colocación con los que colabora “para identificar dónde podemos empezar a construir más capacidad, específicamente con ingeniería sostenible y con requisitos energéticos sostenibles. Eso es clave para nuestros criterios a la hora de decidir dónde invertir”.

El director de Márketing de Vultr admitió que, con la mayor presión que está poniendo la IA sobre la infraestructura, es necesario invertir en infraestructura energética, en líneas de transmisión y en energía limpia y entornos respetuosos con el medio ambiente. Pero, además, se requiere un mayor enfoque en la eficiencia energética. “En nuestros centros de datos, nos aseguramos de trabajar con AMD y NVIDIA para lograr la inferencia más eficiente posible en el borde”, afirmó.

Investigue más sobre Inteligencia artificial y automatización