WavebreakMediaMicro - Fotolia
Uso de GPU en los centros de datos en alza, gracias a IA y big data
Los proveedores de GPU han agregado nuevos dispositivos y tarjetas para los servidores del centro de datos, conforme las cargas de trabajo que demandan datos se infiltraron en el centro de datos y saturaron las CPU tradicionales.
El impulso reciente hacia big data, inteligencia artificial y el aprendizaje automático están creando un efecto dominó entre los servidores empresariales. A medida que los microprocesadores tradicionales luchan para procesar de manera efectiva la información de estas cargas de trabajo exigentes, las GPU del centro de datos entran para llenar el vacío.
Las unidades de procesamiento de gráficos, que existían desde los años 70, se usaron inicialmente para descargar tareas de procesamiento de video y gráficos de los procesadores centrales. Estos sistemas tienen una base diferente a las CPU típicas, que fueron construidas para maximizar el rendimiento en una cadena de alta velocidad de una sola vía. Las CPU también se diseñaron para admitir transferencias rápidas y para mover información rápidamente de un lugar a otro, como la memoria principal a un sistema de almacenamiento. Las GPU tienen una estructura diferente: funcionan con procesamiento paralelo y admiten múltiples conexiones de alta velocidad. Estos microprocesadores tienen varias rutas de datos para procesar gran cantidad de datos, lo que se adapta bien a las aplicaciones gráficas.
Extendiendo el alcance del uso de la GPU en el centro de datos
Las GPU han hecho un buen trabajo al completar un número limitado de tareas, pero gradualmente su alcance se ha expandido. Nvidia recurrió a las GPU para diferenciarse de otros proveedores de semiconductores y para encontrar más usos para las GPU.
En primer lugar, estos productos se abrieron paso en el campo de la computación de alto rendimiento. Pero recientemente, los proveedores de GPU han diseñado dispositivos y tarjetas específicamente para servidores de centros de datos. Las GPU optimizadas para servidor utilizan una memoria de gran ancho de banda y se ofrecen como módulos para la integración en un diseño de servidor dedicado o como tarjetas complementarias Peripheral Component Interconnect Express. Sin embargo, a diferencia de las tarjetas de juego, estas tarjetas no proporcionan interfaces gráficas.
Los proveedores de servidores combinan GPU con CPU para aprovechar las fortalezas de la CPU. El rendimiento de la CPU mejora cuando no funciona con tareas de uso intensivo de datos.
Las aplicaciones de big data, aprendizaje automático e IA tienen altas necesidades de procesamiento y trabajan con grandes cantidades de información y diferentes tipos de datos. Estas características se combinan bien con el diseño de la GPU.
Los proveedores de IA y aprendizaje automático usan GPU para soportar el procesamiento de la gran cantidad de datos necesarios para entrenar redes neuronales. En este mercado, la disponibilidad de PC con GPU permite a los desarrolladores de software desarrollar sus algoritmos en computadoras de escritorio antes de transferir los programas a GPU basadas en servidor de mayor rendimiento, según Alan Priestley, analista de Gartner.
Las GPU llegan al centro de datos
El uso de la GPU en el centro de datos probablemente aumentará en el futuro. Las GPU son atributos de infraestructura importantes para cargas de trabajo de misión crítica. Las organizaciones de TI pueden adquirir GPUs de fábrica y usar bibliotecas estándar que pueden incorporar fácilmente a las aplicaciones, dijo Priestley.
Como resultado, los proveedores de servidores ofrecen servidores dedicados que integran módulos de GPU o productos que admiten tarjetas de complemento GPU. Las tarjetas y módulos GPU optimizados para servidores que utilizan los procesadores de mayor rendimiento generalmente cuestan entre 1.000 y 5.000 dólares, según Gartner.
Los proveedores establecidos están comenzando a incorporar estos complementos en sus líneas de productos. Dell es compatible con la serie de GPU FirePro de Advanced Micro Devices, así como con las GPU de Nvidia, que están diseñadas para infraestructura de escritorio virtual y aplicaciones de cómputo, y tienen potencia de procesamiento que admite hasta 1.792 núcleos de GPU. Los sistemas ProLiant de Hewlett Packard Enterprise (HPE) funcionan con las GPU Nvidia Tesla, Nvidia GRID y Nvidia Quadro. HPE Insight Cluster Management Utility instala y aprovisiona los controladores de GPU y supervisa la salud de la GPU, como la temperatura.
Para prepararse para el uso adicional de las GPU en el centro de datos, los administradores necesitan adquirir experiencia sobre cómo administrar estos procesadores. Deben encontrar personas que estén familiarizadas con la tecnología, lo que no es fácil ya que la tecnología difiere del diseño tradicional de microprocesador y hay poca educación para ello, aunque Nvidia ofrece algunos materiales de capacitación.
Investigue más sobre Arquitectura de centros de datos
-
Dell Technologies y Red Hat combinan fuerzas para impulsar la IA en código abierto
-
Red Hat colaborará con Intel y AMD para impulsar la IA empresarial
-
Ecosistema de telecomunicaciones puede tener un impacto más significativo en la sostenibilidad
-
Nuevas soluciones de Dell con NVIDIA ayudarán a acelerar la adopción de IA