E-Handbook: Cómo manejar los grandes volúmenes de datos Articulo 1 de 3

Fundamentos para proyectos de big data

La necesidad de analizar los grandes volúmenes de datos demanda cada vez más recursos de la infraestructura de computación empresarial. La potencia de cálculo necesaria para procesar rápidamente grandes volúmenes y variedades de datos puede sobrecargar un solo servidor o un clúster de servidores. Las organizaciones deben aplicar el poder de cálculo adecuado a las tareas de big data para lograr la velocidad deseada.

Alcanzar esa velocidad de una manera rentable es también un reto. Como no todas las empresas tienen la capacidad de aumentar su infraestructura, la computación en la nube pública ofrece una alternativa para alojar grandes proyectos de análisis de datos.

Esos grandes volúmenes de datos, o big data, pueden dividirse en datos estructurados (como los que están en las bases de datos relacionales), datos semiestructurados (que tienen organización interna, pero no están en una base de datos, como documentos XML) y datos no estructurados (imágenes, audios, publicaciones de redes sociales, etc.).

Pero, para que sean útiles, los datos deben ser analizados, filtrados y gestionados. Aquí es donde las soluciones de gestión de big data y analítica entran en juego, potenciadas por nuevas tendencias tecnológicas que se alimentan de la información generada, como la inteligencia artificial, el aprendizaje automático o incluso internet de las cosas (IoT). En los siguientes artículos, encontrarán algunos consejos para elegir la mejor solución para su empresa así como para implementarla y aprovechar los análisis de datos.