Disuelva un cuello de botella de red en el DC con estas técnicas

Los problemas de rendimiento de red del centro de datos desaparecerán con arreglos que van de una reorganización sencilla a una revisión estratégica.

A medida que TI añade E/S (I/O) y aplicaciones de comunicación intensiva a los servidores, la tensión en las redes del centro de datos aumenta drásticamente.

Instalaciones construidas alrededor de 1 GbE ya no son eficientes, y en muchos casos, la sustitución –10 GbE– también es un cuello de botella de la red.

Hay más de una manera de romper un atasco de registro de tráfico de red, desde arreglos económicos y rápidos hasta inversiones y reestructuración de capital estratégicas. La nueva tecnología se establece para aumentar la capacidad de la red, y la adopción de tejido de red ha resuelto cuellos de botella de rendimiento de red troncal con Ethernet de varios carriles. En algunos casos, una simple organización operativa alivia la congestión.

Almacenamiento con servidores

Los cambios en el flujo de datos son de bajo costo y una solución rápida a los cuellos de botella de la red. Un ejemplo es el flujo de almacenamiento en red a los servidores.

Google coloca nodos de almacenamiento en red con varios servidores, y luego organiza las aplicaciones para utilizar los datos desde el almacenamiento cercano. Este enfoque le permite agregar puertos de bajo costo a los conmutadores en rack, o incluso tener dos switches, lo que permite puertos Ethernet duales en los nodos. También hace que sea fácil tener cuatro o más puertos en los nodos de almacenamiento, eliminar un cuello de botella de la red para permitir que los datos de entrada y salida. Casi todo el flujo de datos en el rack es a través de la conmutación sobre el rack de –a baja latencia– y el tráfico de red troncal se reduce dramáticamente.

Bases de datos

Las bases de datos son diferentes. Los modelos más eficientes hoy en día utilizan una gran reserva de módulos de memoria en línea duales de memoria de acceso aleatorio dinámico (DRAM) para crear una base de datos en memoria. Lo ideal sería que la organización de TI compre una nueva flota de servidores adaptados –algunos de los cuales pueden contener hasta 6 TB de DRAM– aunque los servidores antiguos trabajan también.

Un complemento de la arquitectura en memoria es incluir almacenamiento de unidades de estado sólido rápidas (SSD) en los servidores. Esto se puede utilizar como amortiguadores de estadificación para la DRAM o como un recurso de almacenamiento en red. Ambos enfoques reducen la carga de red, pero las redes de 10 GbE son probablemente demasiado lentas para mantenerse al día con los sistemas de menos de un año de edad, incluso con dos puertos por servidor.

Virtualización

La virtualización es común en los clústeres de servidores x86, y trae sus propios problemas de cuello de botella de la red. Las tormentas de arranque son tristemente célebres por saturar las redes; incluso en una operación en estado estacionario, la creación de instancias añade una carga, conforme gigabytes de datos cambian del almacenamiento en red al servidor.

En esta situación, transfiera su lealtad de la virtualización tradicional al modelo de contenedores. Esto significa renunciar a la flexibilidad de crear una instancia con cualquier sistema operativo, pero eso por lo general no es un problema.

El enfoque de contenedor, que reduce el tráfico de red, requiere que cada instancia en un servidor  utilice el mismo sistema operativo (soporte del contenedor). El espacio de DRAM que se ahorra de un solo sistema operativo y pila de aplicaciones permite duplicar el conteo de instancias, y la puesta en marcha es rápida. Sin embargo, si las aplicaciones en las instancias son de uso intensivo ya sea de la red o de E/S, pueden ocurrir las mismas tensiones.

Correcciones técnicas del futuro

La conexión entre switches utilizando enlaces 40 GbE (carril cuádruple) es común, y estamos viendo a 100 GbE como una alternativa a 10 GbE. Esta tendencia está recibiendo impulso de los esfuerzos para desplegar enlaces 25 GbE, lo que permitirá cuatro carriles y enlaces 100 GbE relativamente baratos para dispositivos de almacenamiento y la conexión entre switches.

Con 25 GbE, los centros de datos utilizan el cableado existente en el bastidor y entre switches. Por desgracia, no se puede reequipar adaptadores, así que en su lugar utilice una tarjeta PCIe o un nuevo nodo. Aun así, sustituir switches top-of-rack para crear un entorno 10/100 GbE tan pronto como sea económicamente posible aumentará sustancialmente el rendimiento general del clúster.

Esta nueva tecnología se está moviendo rápidamente hacia el mercado, lo que refleja las necesidades de los proveedores de servicios de nube. Los proyectos para entregar enlaces 25 GbE tienen generalmente menos de 12 meses de edad, y la ratificación IEEE está establecida para una programación récord. Las tarjetas de interfaz de red y los switches en producción se esperan en el segundo semestre de 2015.

También hay una opción de doble carril de 50 GbE en el flujo. La velocidad más rápida podría encajar con servidores más grandes que ejecutan analítica de big data en memoria, probablemente con al menos dos enlaces por servidor. Con la tendencia para estos servidores y la computación de alto rendimiento de tener un recuento de núcleos masivo de CPU o GPU, espere que el hambre de datos sea un problema, al igual que el tiempo para cargar terabytes de memoria con datos.

Los arreglos basados en software también se ocupan de los cuellos de botella. Las redes definidas por software puede repartir la carga de las tareas en las líneas troncales entre servidores.

Con el desempeño del almacenamiento y de la arquitectura creciendo rápidamente, las redes van a estar a la vanguardia de la innovación para la próxima década, por lo que la evolución debe ser rápida.

Investigue más sobre Infraestructura empresarial y DC

ComputerWeekly.com.br
Close