Reporte

Refrigeración optimizada para centros de datos con servidores virtuales

La “virtualización” no ha suspendido las leyes físicas; el hardware es muy real y sigue necesitando gran cantidad de energía y recursos de refrigeración.

Es 2008 y los ambientes virtuales son el nuevo paradigma de la computación. El hardware y el software parecen trabajar juntos tal y como anuncia la publicidad. Nos llega la imagen de que las máquinas virtuales tienen muchas ventajas, utilizan y gestionan mejor los recursos y ahorran energía. El círculo se ha cerrado y ahora concentramos más poder de cómputo en un solo rack. El uso de servidores 1U de alta densidad y blade servers permite que un rack agrupe más potencia de cómputo que todo un mainframe de tamaño medio hace diez años. Sin embargo, la “virtualización” no ha suspendido las leyes físicas; el hardware es muy real y sigue necesitando gran cantidad de energía y recursos de refrigeración.

La pura realidad con todas la computadoras es que transforman cada vatio (Watt) de energía directamente en calor (y, sí, ya sé que también realizan útiles labores de computación). Con la llegada de la virtualización basada en servidores de alto rendimiento con múltiples núcleos y procesadores, la cantidad de energía empleada ha pasado desde 25 W-50 W/pie cuadrado hasta 250 W-500 W/pie cuadrado, y sigue aumentando (un pie cuadrado equivale aproximadamente a 0.093 metros cuadrados).

En términos de vatios por estante o rack, en la segunda mitad de la década de 1990, teníamos entre 500 W-100 W y, ocasionalmente, entre 1 y 2 kilovatios (kW). Tras superar la locura del Y2K, en lugar de centrarse en la remediación, los servidores se hicieron más pequeños y rápidos y comenzaron a usar más potencia.

Hoy en día, un típico servidor 1U consume entre 250 W y 500 W, y 40 de ellos agrupados en un estante 42U pueden absorber entre 10 kW y 20 kW y producir entre 35.000 y 70.000 BTUs. Esto requiere entre 3 y 6 toneladas de refrigeración por estante. En comparación, esta es la misma cantidad de enfriamiento que hace cinco años se especificaba para una sala de entre 18.5 y 37 metros cuadrados con 10-15 racks.

Los servidores blade proporcionan más ventajas de ahorro de espacio, pero exigen más energía y potencia de refrigeración. Estos servidores pueden llegar a soportar docenas de procesadores multicore en alturas de 8U-10U, pero necesitan entre 6 kW y 8 kW cada uno. Con cuatro o cinco servidores blade por estante, ¡necesitaremos entre 24 kW y 32 kW por rack!

Refrigeración y virtualización

Este concepto ha cobrado fuerza y está convirtiéndose de facto en la última moda del mundo computacional. Ha demostrado que funciona efectivamente y que tiene muchas ventajas. Una de ellas es que mejora la eficiencia energética porque puede reducir el número de servidores “reales”. Por supuesto, junto con la “actualización” a un ambiente virtual está la adición de nuevos servidores de alto rendimiento y alta densidad. El hardware consume menos energía porque hay menos servidores. Sin embargo, la concentración de servidores de alta densidad en un espacio mucho más reducido crea problemas de despliegue.

Por tanto, si la virtualización usa menos espacio y los servidores consumen menos energía en conjunto, ¿cuál es el problema?

Necesidades de energía: Los ambientes virtualizados consumirán menos electricidad cuando se ejecuten adecuadamente porque utilizan menos servidores. Sin embargo, muchos de los sistemas de distribución de potencia actuales no tienen capacidad para soportar 20 kW-30 kW por estante.

Requisitos de refrigeración: Da la impresión de que si se implementa correctamente la virtualización, puede usar menos espacio y energía utilizando menos servidores pero más densos. Por tanto, la conclusión lógica es que se necesitaría menos refrigeración. En resumen, la virtualización debería suponer mayor eficiencia energética y el centro de datos sería más “verde” (ah, la mágica palabra de la “V”).

Aquí es donde se manifiesta el dilema entre virtualización y eficiencia. Como se mencionó antes, los centros de datos construidos hace sólo cinco años no fueron designados para suportar 10, 20 o 30 kW por bastidor. Por eso, sus sistemas de refrigeración no tienen la capacidad suficiente para eliminar eficientemente el calor generado en una zona tan compacta.

Si todos los estantes estuvieran configurados a 20 kW por estante, el promedio electricidad/refrigeración podría llegar a superar los 500 W/pie cuadrado. Incluso algunos centros de datos Tier IV construidos recientemente tienen como promedio un límite de 100 W-150 W por pie cuadrado. La consecuencia es que muchos proyectos de alta densidad han tenido que esparcir los servidores en racks medio vacíos para rebajar el promedio de energía por pie cuadrado y evitar el sobrecalentamiento.

Comparación de opciones de refrigeración

El centro de datos “clásico” se remonta a la época de los mainframes. Tenía el suelo levantado, lo cual cumplía varios propósitos: era capaz de distribuir fácilmente el aire frío desde la unidad de aire acondicionado de la sala de cómputo (CRAC) y contenía los cables de la electricidad y las comunicaciones.

Aunque los mainframes eran muy grandes, solo consumían entre 25 W y 50 W por pie cuadrado. En sus orígenes, el centro de datos estaba diseñado con filas orientadas en la misma dirección para que tuviera una apariencia limpia y ordenada. En muchos casos, el aire frío entraba por la parte inferior de los armarios y salía por la parte de arriba. Generalmente las baldosas del suelo no estaban perforadas. Este método de refrigeración era relativamente eficiente porque el aire frío iba directamente a los armarios donde reposaban los equipos y no se mezclaba con aire caliente.

Con la introducción de los servidores montados sobre estantes, la media de consumo energético empezó a subir hasta alcanzar los 35 W-75 W por pie cuadrado. La orientación de los armarios se convirtió en un problema porque el aire caliente ahora salía por la parte trasera de uno de los racks y entraba por delante del siguiente. Así es como nació el “pasillo caliente-pasillo frío” en los 1990. Las unidades CRAC seguían estando ubicadas fundamentalmente en el perímetro del centro de datos, pero las losetas del suelo ahora tenían orificios de ventilación (o estaban perforadas) en los pasillos fríos. Esto funcionaba mejor y los sistemas de refrigeración se renovaron para resolver el problema de la creciente carga de calor añadiendo más unidades CRAC y de mayor tamaño, con ventiladores más potentes y perforaciones más anchas en los orificios del suelo.

Este método de refrigeración es todavía el predominante en la mayoría de centros de datos construidos en los últimos 10 años y en muchos otros que están en fase de diseño. Los suelos elevados ahora tienen más fondo (60 a 120 cms no es inusual) para permitir la distribución del aire frío usando esta metodología “de eficacia probada en el tiempo”. Sin embargo, se puede decir que el método es eficaz sólo hasta cierto punto. Una vez superado un nivel de potencia determinado, este sistema plantea múltiples inconvenientes. Los motores de los ventiladores en las CRACs perimetrales consumen mucha más electricidad para impulsar más aire a velocidades y presiones mayores a fin de trasladar aire frío suficiente a través de una sola loseta perforada de 60x60 cms que soporta un rack de 30 kW.

Estas losetas perforadas incluso han sido sustituidas recientemente por rejillas para tratar de propulsar aire frío suficiente como para enfriar servidores de alta densidad. (Nota: cada 3.5 kW se producen 12,000 BTUs de calor, lo que requiere 1 tonelada de refrigeración). Desafortunadamente, la cifra de 3.5 kW/rack ha sido superada con creces con la aparición de los servidores blade de “1U”. Ahora, en vez de especificar cuántas toneladas de refrigeración se necesitan para el centro de datos entero, se habla de que se necesitan entre 5 y 10 toneladas ¡por rack!

Como resultado, la cantidad de electricidad utilizada para enfriar las “granjas” de servidores de alta densidad supera la energía consumida por los propios servidores. En algunos casos, por cada $1 dólar gastado en energía para los servidores, se gasta el doble o más en refrigeración. Esto es debido, principalmente, a un problema de eficiencia por el camino que recorre el aire –idealmente, debería consumir menos de la mitad de la energía, no el doble. 

En algunas aplicaciones, el sistema tradicional de refrigeración perimétrica con suelo elevado y utilizado para las aplicaciones de alta densidad está causando un aumento generalizado del consumo energético y una inadecuada refrigeración de los racks, repletos de servidores de alta densidad.

Refrigeración sin suelos elevados: Algunos sistemas de refrigeración de nueva creación se colocan muy cerca de los racks. Esto mejora el rendimiento y la eficiencia de la refrigeración sin tener el suelo elevado. Estos sistemas sirven como solución de conjunto o como complemento para sistemas de refrigeración sobreexigidos.

Avances en refrigeración con acoplamiento cercano (close-coupled cooling): Varios fabricantes de productos de refrigeración han desarrollado sistemas que acortan la distancia a recorrer por el aire desde las unidades de refrigeración a los racks. Algunos sistemas se instalan dentro de los propios estantes (inrow) y otros se ubican por encima (overhead), ofreciendo un importante aumento en la refrigeración de los racks de hasta 20 kW/rack. Con la infraestructura de apoyo necesaria, estos sistemas proporcionan una reducción significativa de los costos de enfriamiento, emplean menos energía para mover el aire y reducen al máximo la mezcla de aire frío y caliente. Véase el diagrama donde se compara la tecnología de refrigeración con acoplamiento cercano vs. refrigeración tradicional (haga clic en la imagen para ver la versión ampliada).

La contención del pasillo caliente requiere que el “pasillo caliente” quede sellado con unidades de refrigeración tipo inrow. Esto garantiza una extracción y conducción eficiente de todo el calor hacia el sistema de refrigeración teniendo que cubrir muy poca distancia, lo cual aumenta la eficacia y eficiencia del enfriamiento de los racks de alto consumo.

Los estantes completamente cerrados ofrecen la mayor densidad de refrigeración. Al tener los serpentines de refrigeración dentro de un armario completamente sellado, se pueden enfriar hasta 30 kW en un solo rack. Los sistemas de algunos de los principales fabricantes de servidores ofrecen sus propios armarios “completamente sellados” e incorporan serpentines de refrigeración que contienen el flujo de aire dentro del armario. Esta es una de las soluciones de alta densidad y alto rendimiento más efectivas para la refrigeración de servidores estándar “refrigerados por frío” hasta los 30 kW por rack. Potencialmente ofrece el mayor nivel de eficiencia energética.

Servidores refrigerados por líquido: Hoy en día, todos los servidores usan aire para transferir el calor fuera del servidor. Varios fabricantes están explorando la posibilidad de construir o modificar servidores para que usen una “refrigeración por fluidos”. En lugar de ventiladores que soplan aire a través del chasis del servidor, se bombea líquido por los elementos del servidor generadores de calor (CPUs, componentes eléctricos, etc.). No obstante, esta tecnología está en fase de prueba y desarrollo. Además, el riesgo de que los líquidos se filtren a los sistemas electrónicos pueden limitar el atractivo y aceptación de esta fórmula. Es importante señalar que este método es distinto a usar líquido (agua helada o basada en glycol) para eliminar el calor de la CRAC. 

La buena noticia es que podemos incorporar o acoplar algunas de las nuevas tecnologías de refrigeración (inrow, overhead y de sellado) a los centros de datos existentes para mejorar sus sistemas de refrigeración actuales. O también pueden emplearse en “islotes” específicos del centro de datos para aumentar la densidad de refrigeración en zonas concretas.

En la siguiente entrega, hablaremos sobre mejores prácticas en la implementación de soluciones de refrigeración en centros de datos.

ACERCA DEL AUTOR: Julius Neudorfer es director tecnológico de NAAT desde su creación, en 1987, además de ser uno de sus principales fundadores. Ha diseñado y gestionado proyectos de comunicaciones y sistemas de información para clientes comerciales y gubernamentales.

Investigue más sobre Arquitectura de centros de datos

ComputerWeekly.com.br
Close