kreizihorse - Fotolia

Principales tendencias de tecnología de almacenamiento de datos para 2017

Conozca lo que está de moda y lo que no lo está tanto en nuestra lista de tendencias de tecnología de almacenamiento de datos para el año que viene.

Rodney Brown, Rich Castagna, Paul Crocetti, Garry Kranz, Sonia Lelii, James Alan Miller y Carol Sliwa también contribuyeron con esta historia.

Es nuestra estación favorita. Por décimo cuarto año consecutivo, en SearchStorage compilamos las tendencias de tecnología de almacenamiento de datos que creemos que tendrán el mayor impacto en el mundo del almacenamiento en el próximo año. ¡Bienvenido a las tecnologías de moda 2017!

Como en años pasados, no hay nada de última tecnología o impráctico aquí, solamente la tecnología más nueva del almacenamiento que se ha probado como práctica. Por lo tanto, mientras que nuestra lista de tendencias de tecnología de almacenamiento representa lo mejor y más brillante que la industria del almacenamiento tiene que ofrecer, solo incluye tecnologías que puede comprar e implementar hoy.

Suba a bordo, póngase su cinturón y prepárese a descubrir nuestra opinión sobre qué tecnologías tendrán el efecto más profundo en los departamentos de almacenamiento en 2017.

Respaldo de nube a nube

Solo porque los datos están en la nube no significa que están adecuadamente protegidos. La copia de seguridad de nube a nube llena ese rol permitiendo a las empresas copiar los datos almacenados en un servicio de nube, en otra nube. Entre las tendencias de tecnología de almacenamiento que tendrán un gran año en 2017, los proveedores de respaldo de nube a nube continúan agregando capacidades, conforme crece el interés del usuario en los servicios.

El experto en almacenamiento, Brien Posey, cree que el respaldo de nube a nube probablemente se convertirá en la norma para el 2018. Las razones por las que se está volviendo popular son dos. "En primer lugar, la tecnología de respaldo está finalmente empezando a alcanzar a la nube pública, lo que la hace más práctica para realizar copias de seguridad de nube a nube", escribió Posey en un correo electrónico. "Segundo, y éste es el más grande, es el factor económico".

Para las organizaciones que trasladan datos a la nube pública porque es más barato, el respaldo a otro proveedor de la nube tiene sentido económico y ofrece las ventajas del respaldo externo.

Posey todavía ve un papel para las copias de seguridad y el almacenamiento locales, pero cree que los requisitos de almacenamiento local probablemente disminuirán en los próximos años.

"Podemos ver al respaldo en la nube convirtiéndose en el estándar de facto, con instantáneas retenidas en premisas para restauraciones de tipo error del usuario", escribió el experto en almacenamiento y consultor Chris Evans en un correo electrónico. "Los proveedores de software de respaldo necesitan y han comenzado a adaptarse. Los mayores perdedores podrían ser los dispositivos de respaldo en este caso".

Específicamente, con respaldos de nubes privadas a públicas, hay herramientas para respaldar y restaurar aplicaciones en la nube, ahorrando dinero y mejorando las operaciones, agregó Evans. Y, señaló, las aplicaciones y datos de software como servicio (SaaS) también necesitan respaldo, lo que se hace más fácilmente a través de la nube.

Como un modelo de entrega de software basado en internet, SaaS se ha convertido en una opción importante para las empresas que buscan eliminar la sobrecarga de proporcionar ellos mismos una gama de servicios de TI (por ejemplo, correo electrónico, colaboración, CRM y así sucesivamente). Así, a medida que SaaS crece y el trabajo serio se traslada a la nube, más organizaciones están reconociendo el valor del respaldo de nube a nube, dijo el consultor de almacenamiento Jim O'Reilly.

"En lugar de devolver datos al centro de datos interno, la economía y la eficiencia operativa sugieren que una copia de seguridad formal de los datos de la nube en otro espacio de nombres en la nube es el mejor mecanismo para proteger totalmente los datos en la nube", explicó O'Reilly. "Aumentar el confort con la nube como un sitio para ejecutar aplicaciones serias, y el uso cada vez mayor de SaaS hará que este enfoque sea imprescindible para las operaciones de TI más grandes en 2017".

Los principales actores en el respaldo de nube a nube orientado a SaaS incluyen Asigra Cloud Backup, Barracuda Cloud-to-Cloud Backup, Datto Backupify y Dell EMC Spanning. Barracuda, entre los que mejoraron sus plataformas de respaldo de nube a nube en 2016, redujo el tiempo que tarda completar copias de seguridad incrementales de versiones alojadas de las aplicaciones de Microsoft.

El respaldo de nube a nube es esencial para proteger los datos creados por las aplicaciones SaaS. Cabe destacar que, en mayo, una interrupción de Salesforce impidió a los clientes acceder a sus datos durante varias horas. Además, aunque los proveedores de SaaS realizan sus propias copias de seguridad, solo es para su protección. Si, por ejemplo, uno de los usuarios de SaaS borra accidentalmente algo, sin su propia copia de seguridad, tendría que pagar a Salesforce para restaurar los datos, y el costo de eso comienza en 10.000 dólares.

Al considerar un plan de respaldo de nube a nube o SaaS, Evans aconsejó a los administradores que aplicaran los mismos estándares a los procesos de respaldo y restauración como lo harían con las implementaciones locales. Puede hacerlo, por ejemplo, probando cuán bien un servicio de respaldo de nube a nube cumple con los objetivos de tiempo de recuperación y de punto de recuperación.

Contenedores

Impulsada por los avances tecnológicos que permiten que los microservicios de aplicación consuman directamente el almacenamiento persistente, la virtualización de contenedores logró importantes avances en el almacenamiento empresarial en 2016. Esperamos que la contenerización de código abierto siga siendo una de las tendencias de tecnología de almacenamiento de moda en 2017 también, ya que la tecnología de contenedores ha avanzado en áreas clave como la protección de datos, el consumo de almacenamiento persistente y la portabilidad.

El desarrollo y las pruebas siguen siendo los usos dominantes de los contenedores, pero los expertos dicen que los administradores de almacenamiento también están aprendiendo a manejar selectivamente instancias de Docker. "El mayor cambio, en una palabra, es la persistencia", dijo Henry Baltazar, director de investigación de almacenamiento en la firma de consultoría de TI, 451 Research. "Los contenedores se han movido más allá del almacenamiento efímero al almacenamiento persistente para almacenar datos y proteger sus aplicaciones".

Aunque CoreOn, rival de código abierto de Docker, lanzó la primera versión comercial de su tiempo de ejecución Rocket para contenedor Linux este año, Docker sigue siendo el líder de los contenedores, reclamando más de cinco millones de descargas de software y 650.000 usuarios registrados. Los equipos de aplicaciones utilizan Docker para desarrollar rápidamente, enviar y engendrar aplicaciones dentro de contenedores. Cuanto más se acercan las aplicaciones "Dockerizadas" al despliegue en tiempo real, mayor es la necesidad de administrar y suministrar el almacenamiento Docker en contenedores sin estado.

El motor de tiempo de ejecución Docker estaba originalmente diseñado para almacenamiento basado en Linux, pero con Windows Server 2016 (lanzado en septiembre), Microsoft ahora permite a los administradores gestionar la virtualización de Docker en los servidores Windows. Microsoft también agregó su propio tiempo de ejecución de contenedor a su último sistema operativo de servidor, permitiendo a los departamentos de Microsoft lanzar contenedores basados ​​en Windows sobre hardware de servidor Windows Server 2016 o dentro de máquinas virtuales Hyper-V.

Mientras que la virtualización de hardware está aquí para quedarse, la contenerización amplía el concepto mediante la virtualización del propio sistema operativo, permitiendo así que las cargas de trabajo compartan el código subyacente y las bibliotecas dependientes. Las empresas con almacenamiento altamente virtualizado podrían implementar cientos, o tal vez miles, de contenedores en un solo nodo, todos ejecutándose como instancias ligeras.

Permitir el almacenamiento persistente en contenedores es una prioridad para los proveedores de almacenamiento, dijo Greg Schulz, fundador y asesor senior de la firma de infraestructura de TI, Server StorageIO. "El soporte para los contenedores sin estado y con estado serán la norma dentro de 18 meses. Los contenedores para Docker, Linux y Windows se convertirán en una unidad de computación más viable, uniendo bare metal físico junto con otras máquinas virtuales definidas por software, e instancias de máquinas en la nube".

Los proveedores de almacenamiento heredados Dell EMC, Hewlett Packard Enterprise (HPE), Hitachi Data Services, IBM y NetApp están diferenciando sus arreglos de almacenamiento para implementar y administrar entornos Docker a gran escala. Portworx, Rancher Labs y StorageOS están entre las primeras startups de software de contenedores que abordan la gestión de datos y la migración segura de datos de contenedores entre nodos de servidores.

Red Hat agregó el almacenamiento definido por software Red Hat Gluster como un back end de almacenamiento persistente para contenedores de aplicaciones basados ​​en Linux. Incluso el gigante de la virtualización, VMware, se ha unido a la refriega. VMware Integrated Containers permite a los clientes ejecutar contenedores en vSphere.

Como con cualquier nueva tecnología, el ciclo de propaganda para contenedores ha superado el despliegue real. Eso significa que las empresas deben moverse con cautela al conectar los puntos entre los contenedores y la gestión del almacenamiento, dijo Baltazar.

"Las empresas no van a empezar a correr un montón de aplicaciones de base de datos Oracle en un contenedor, pero hay áreas donde los contenedores son importantes", señaló Baltazar. "Las aplicaciones móviles y la analítica son ideales para los contenedores. Usted obtiene una poderosa asignación de recursos y la posibilidad de realizar aprovisionamientos muy rápidamente".

Flash de alta capacidad

Samsung presentó una unidad de estado sólido SAS de 2,5 pulgadas y 15 TB (capacidad real de 15,36 TB) en 2015. Esa unidad, que comenzó a enviarse la primavera pasada, es actualmente la SSD empresarial de mayor capacidad disponible, y ahora está empezando a aparecer en arreglos todo-flash de HPE y NetApp. Para no quedarse atrás, Seagate dio a conocer una unidad SSD SAS de 60 TB en un factor de forma de 3,5 pulgadas en la Cumbre de Memoria Flash de este año, y ahora se está asociando con HPE para ponerla en producción masiva.

Aumentar la capacidad de las unidades a alturas previamente inimaginables es la última de las tendencias de tecnología de almacenamiento de moda en la industria del flash. Si eso suena familiar, debería serlo. Al igual que en los primeros días de las unidades de disco duro, los proveedores de SSD ahora están compitiendo en niveles de capacidad de alta densidad, o en quién puede acumular el flash de mayor y más alta densidad en una unidad de tamaño estándar.

Samsung basa sus grandes unidades en su chip V-NAND de 512 GB. El proveedor apila chips V-NAND 512 en 16 capas para forjar un paquete de TB, 32 de los cuales se combinan en 32 TB SSD. Samsung señaló su 32 TB permitirá una mayor densidad que el 60 TB SSD de Seagate, porque 24 unidades de 2,5 pulgadas pueden caber en el mismo espacio que 12 SSD de 3,5 pulgadas. Tanto las 32 TB de Samsung como las 60 TB SSD de Seagate se enviarán en algún momento del 2017. Por lo tanto, parece que Seagate será el número uno en densidad por un tiempo, al menos hasta que Samsung empaque su tecnología flash de alta densidad en una unidad de 60 TB propia.

De acuerdo con Russ Fellows, socio senior y analista de Evaluator Group, eventualmente llegará al punto en que el disco giratorio se convierta en secundario a los SSD. "Creo que, cuando la densidad comienza a subir tan rápido y los dólares por gigabyte bajan, va a ser incluso más barato que las unidades SATA rápidas", dijo. "Muy pronto, [los SSDs] serán más baratos que el disco giratorio. Para el año 2020, el disco giratorio probablemente estará muerto".

Para Mark Bregman, vicepresidente senior y director de tecnología de NetApp, los SSD de alta capacidad ofrecen enormes reducciones de espacio y ahorros en energía y refrigeración.

"Las matrices de todo flash de NetApp que usan SSDs de alta capacidad ahora pueden abordar casos de uso de clientes donde tal alivio significativo históricamente ha sido poco práctico", escribió Bregman en una publicación en el blog de NetApp Community. "Desde el punto de vista de la eficiencia del espacio, no puede vencer a las nuevas matrices todo-flash de alta capacidad, que proporcionan hasta 321,3 TB de almacenamiento bruto en un solo factor de forma de 2U. Esto significa que un único sistema de 2U usando unidades de 15,3 TB puede proporcionar más de 1 petabyte de capacidad efectiva".

"Lograr la misma [capacidad] con incluso las unidades de disco duro SFF de más alta densidad", continuó, "requeriría 52U de espacio en rack y 18 veces más energía".

NVMe

Las unidades de estado sólido han sido el mayor mercado para el almacenamiento específico de memoria expresa no volátil (NVMe) hasta la fecha. Sin embargo, la tecnología NVMe, que reduce la latencia y aumenta el rendimiento, es una de las tendencias de tecnología de almacenamiento que comienza a estar de moda en los sistemas de almacenamiento empresarial.

Según Jeff Janukowicz, vicepresidente de investigación de IDC, los envíos de modelos de servidores, así como de matrices de almacenamiento híbridas y de todo flash que apalancan la tecnología NVMe deberían más que duplicarse en 2017, debido a precios más asequibles y un ecosistema en expansión.

“La adopción de NVMe todavía está en su infancia", escribió Janukowicz en un correo electrónico. "Sin embargo, estamos en un punto de inflexión, y estamos empezando a ver muchos más modelos que están empezando a volverse disponibles para el mercado más amplio".

NVMe es una alternativa al antiguo SCSI para transferir datos entre hosts y almacenamiento periférico. SCSI se convirtió en un estándar en 1986, cuando los discos duros y la cinta eran los medios de almacenamiento principales del centro de datos. La industria diseñó NVMe para soportar una tecnología de almacenamiento más rápida, como los SSD PCI Express (PCIe). La especificación NVMe, lanzada en 2011, proporciona una interfaz de registro simplificada y un conjunto de comandos para reducir la sobrecarga de CPU de la pila de E/S.

Eric Burgener, director de investigación de IDC, destacó el análisis de big data en tiempo real como un tipo de carga de trabajo de aplicación que requeriría el nivel de rendimiento que NVMe puede ofrecer. Los proveedores que apuntan a esas cargas de trabajo de alto rendimiento con productos de almacenamiento basados ​​en NVMe incluyen Dell EMC (con sistemas de almacenamiento todo flash DSSD), E8 Storage y Mangstor, dijo.

Burgener predijo que NVMe en los sistemas de almacenamiento, también conocido como "flash a escala de rack", seguiría siendo un mercado relativamente pequeño, pero creciente, en los próximos años. Él dijo que el mercado de arreglos crecería más rápidamente una vez que los dispositivos NVMe empaquetados soporten capacidades empresariales tales como enchufe en caliente y puerto dual.

También está en el horizonte NVMe sobre tejidos (NVMe-oF), que permite el uso de transportes alternativos a PCIe para extender la distancia sobre la cual los hosts NVMe y los dispositivos de almacenamiento NVMe pueden conectarse. NVM Express Inc., una organización sin fines de lucro de más de 100 proveedores, finalizó la especificación de NVMe-oF en junio de 2016.

El potencial de crecimiento a largo plazo de NVMe es significativo. La firma de investigación de mercado G2M Inc. pronosticó que el mercado NVMe alcanzaría los 57 mil millones de dólares en 2020, con una tasa de crecimiento anual compuesta de 95%.

G2M también predijo que el 60% de los dispositivos de almacenamiento empresarial, y más del 50% de los servidores empresariales tendrían bahías NVMe a finales de la década. Y proyectó que, para el año 2020, casi el 40% de las matrices de todo flash estarían basadas en NVMe, con embarques de SSDs basados ​​en NVMe creciendo a 25 millones de unidades.

Almacenamiento definido por software

Hay muchos términos vagamente definidos que se utilizan en el mundo de la tecnología en general, y para el almacenamiento en particular. El término “almacenamiento menos claro” puede muy bien ser uno de los términos más citados actualmente sobre el almacenamiento definido por software (SDS).

WhatIs.com definió SDS como "un acercamiento al almacenamiento de datos en el cual la programación que controla las tareas relacionadas con el almacenamiento está desacoplada del hardware de almacenamiento físico". Es una definición que es lo suficientemente flexible en su interpretación para cubrir todo tipo de tecnologías. La cuestión es que esas tecnologías realmente comparten algunas características, principalmente un enfoque en servicios de almacenamiento, en lugar de en el hardware, y el uso de gestión basada en políticas para permitir una mayor eficiencia y una menor complejidad cuando se trata de administrar el almacenamiento.

Una de las principales áreas de confusión proviene de cómo SDS es más utilizado en relación con los entornos virtualizados. Sin embargo, eso no es un requisito. Afortunadamente, el mercado está llegando lentamente a un acuerdo sobre exactamente lo que es SDS. Para poder llamarse almacenamiento definido por software, un producto debe permitir a los usuarios asignar y compartir recursos de almacenamiento en cualquier carga de trabajo, incluso si el almacenamiento no está virtualizado.

En el número de marzo de 2016 de la revista Storage, el analista de almacenamiento Marc Staimer, de Dragon Slayer Consulting, estableció cuatro categorías básicas de SDS: basada en hipervisor, infraestructura hiperconvergente (HCI), virtualización de almacenamiento, y  objeto o archivo de escala horizontal.

VMware prácticamente posee la categoría basada en hipervisor con vSphere Virtual SAN. Como la segunda categoría SDS más antigua con productos en el mercado, está bien establecida entre las tendencias de la tecnología de almacenamiento. Sin embargo, también está restringido al hardware que VMware ha determinado compatible.

La mayor parte del mercado de SDS reside en HCI SDS, a través de productos ofrecidos por gigantes como Cisco, Dell EMC e IBM, así como startups como Nutanix y SimpliVity. El aspecto positivo de HCI SDS es cómo todo lo que necesita para su infraestructura de almacenamiento está incluido y diseñado para trabajar juntos. Lo negativo es que significa que solo los recursos de la HCI pueden aprovechar los beneficios de la SDS.

La virtualización de almacenamiento SDS es el abuelo de todas las variedades de almacenamiento definido por software, y DataCore, Dell EMC, IBM e incluso Microsoft ofrecen productos en esta categoría. Pero solo porque es el más antiguo, no significa que no hay jugadores más jóvenes (incluyendo NetApp, Nexenta Systems y StarWind Software) en el juego.

El más nuevo en el mercado es el SDS de objeto o archivo de escala horizontal. Incluso en esta área, además de compañías nuevas como Scality, usted tiene gigantes en competencia, como Spectrum Storage de IBM y Red Hat con sus productos OpenStack y basados en Ceph.

La continua caída en el precio de los productos básicos está estimulando una mayor adopción de SDS. Con SDS, hay menos necesidad de hardware específico para obtener altos niveles de rendimiento, especialmente cuando se utiliza un tipo de almacenamiento definido por software centrado en el rendimiento en la empresa. Además, como el almacenamiento de objetos se ha convertido menos en una plataforma de almacenamiento de datos de solo nube, esa versión particular de SDS ha ganado rápidamente terreno en el centro de datos.

En una reciente entrevista, el CEO y fundador de la startup de SDS, Hedvig Inc., Avinash Lakshman, explicó por qué él piensa que SDS de escala horizontal es una tecnología de moda que seguirá creciendo rápidamente.

"El ROI es bastante simple porque los costos de hardware no van a ninguna parte, sino hacia abajo. Gente como Amazon, Google, y todas estas empresas de gran escala de internet, están obviamente yendo por ese camino. Está obligando a la empresa a echar un vistazo a ellos y hacer la pregunta: ¿si ellos pueden hacer mucho más con mucho menos, por qué nosotros no?".

FC de 32 gigabits

La mayoría de las tendencias actuales de tecnología de almacenamiento funcionan contra el canal de fibra (FC). Las nuevas arquitecturas de moda, como la hiperconvergencia y la nube, utilizan Ethernet con poca necesidad de FC. Ethernet también domina el almacenamiento de datos no estructurados basados ​​en archivos, que está creciendo mucho más rápido que los datos estructurados basados ​​en bloques, que a menudo requieren SAN de canal de fibra. Hay apenas un puñado de compañías de redes FC, y ahora todas soportan también a Ethernet.

Del otro lado, está flash. Los proveedores y los fanáticos de FC están contando con la rápida aparición de SANs de almacenamiento todo flash para mantener relevante a FC, especialmente mientras el protocolo transita de equipos de 16 Gbps a switches y adaptadores de 32 Gbps. Esa transformación probablemente hará grandes incursiones a finales de 2017, proporcionando una nueva ola para FC.

"Los cuellos de botella de rendimiento del almacenamiento se están moviendo fuera de las matrices y hacia la red de almacenamiento, por lo que el canal de fibra seguirá siendo el protocolo de almacenamiento del centro de datos de elección para la próxima década", escribió el director de investigación de Gartner, Valdis Filks, y el vicepresidente de investigación, Stanley Zaffos, en un reporte reciente llamado "El futuro de los protocolos de almacenamiento".

El almacenamiento de estado sólido –hoy en su mayoría flash con NVMe llegando y 3D XPoint en el horizonte– proporciona un mayor rendimiento y menor latencia que los medios de disco duro. No obstante, las redes de almacenamiento necesitan más ancho de banda si los medios de almacenamiento deben alcanzar esos picos de rendimiento.

Filks y Zaffos agregaron que 16 Gbps –e incluso Ethernet de 40 gigabits– serán demasiado lentos para mantenerse al día con la próxima generación de almacenamiento de estado sólido. Por lo que ellos recomiendan trasladarse a FC de 32 gigabits y a Ethernet de 100 gigas dentro de cinco años.

El año pasado, vimos los primeros productos de FC de 32 gigas llegar al mercado, incluyendo switches de Brocade y Cisco, y adaptadores de Broadcom y QLogic. Se espera que la adopción se acelere cuando los proveedores de matrices de almacenamiento soporten 32 gigabits, lo que debería ocurrir de manera significativa el próximo año.

Broadcom consolidó aún más la industria de redes de FC con la adquisición de Brocade de 5.900 millones de dólares, que se espera cierre a principios de 2017.

El CEO de Broadcom, Hock Tan, dijo que su compañía seguirá invirtiendo en FC. "Si usted cree en todo flash, tiene que creer en canal de fibra", dijo en una conferencia telefónica por la adquisición de Brocade. "Incluso hoy en día, iSCSI y Ethernet no ofrecen eso. Esperamos que este mercado se mantenga relativamente estable, ya que soporta centros de datos privados con una gran base instalada de SAN de canal de fibra que se actualizan constantemente".

Flash y el paso de 16 Gbps a 32 Gbps se espera que impulsen muchas de esas actualizaciones.

Gartner recomendó esperar un año después de la disponibilidad general antes de pasar al protocolo más reciente. Eso proporcionaría tiempo para que los precios bajaran, las distorsiones iniciales se resolvieran, y permitirían la compatibilidad total del almacenamiento y los servidores con los switches. Sin embargo, los primeros compradores de FC de 32 gigabits pueden usar todavía su almacenamiento y servidores de 16 gigabits y 8 gigabits con los nuevos productos de switching. También pueden revisar las hojas de ruta para equipos de 64 y 128 gigabits.

Adarsh ​​Viswanathan, gerente senior de administración de productos para el grupo de almacenamiento de Cisco, espera que FC de 32 gigas despegue a finales de 2017, después de que los proveedores de matrices de almacenamiento lo adopten totalmente. "Muchos de los grandes clientes con los que hablamos están en producción con arreglos de todo flash, y asignando cargas de trabajo de misión crítica en flash a través de canal de fibra. Los proveedores de flash pueden llenar el canal de 32 gigabits. Esperamos que obtenga gran tracción en la segunda mitad de 2017".

Investigue más sobre Sistemas de almacenamiento empresarial

ComputerWeekly.com.br
Close