Definition

Análisis de big data

El análisis de grandes datos o big data es el proceso de examinar grandes cantidades de datos de una variedad de tipos para descubrir patrones ocultos, correlaciones desconocidas y otra información útil. Tal información puede proporcionar ventajas competitivas a través de organizaciones rivales y resultar en beneficios para el negocio, tales como el marketing más efectivo y mayores ingresos.

El objetivo principal del análisis de datos grandes es ayudar a las empresas a tomar mejores decisiones de negocios al permitir a los científicos y otros usuarios de datos analizar grandes volúmenes de datos transaccionales, así como otras fuentes de datos que puedan haber quedado sin explotar por la inteligencia de negocio convencional (BI) programas.

Estas fuentes de datos pueden incluir registros del servidor web y datos de seguimiento de clics en internet, informes de actividades sociales, medios de comunicación, teléfonos móviles registros detallados de llamadas y la información captada por los sensores.

Algunas personas asocian exclusivamente grandes datos y análisis de grandes volúmenes de datos con datos no estructurados de ese tipo, pero consultoras como Gartner y Forrester Research Inc. también consideran las transacciones y otros datos estructurados como formas válidas de datos grandes.

El análisis de big data puede hacerse con herramientas de software de uso común en el marco de disciplinas analíticas avanzadas, como el análisis predictivo y la minería de datos. Sin embargo, las fuentes de datos no estructurados utilizados para el análisis de grandes datos tal vez no encajen en los almacenes de datos tradicionales. Además, los almacenes de datos tradicionales pueden no ser capaces de manejar las demandas de procesamiento de grandes datos. 

Como resultado, una nueva clase de tecnología de datos grandes ha surgido y está siendo utilizado en muchos análisis de datos grandes. Las tecnologías relacionadas con el análisis de datos incluyen bases de datos grandes NoSQL, Hadoop y MapReduce. Estas tecnologías forman el núcleo de un marco de software de código abierto que soporta el procesamiento de grandes volúmenes de datos a través de sistemas en clúster.

Los peligros potenciales que pueden provocar tropiezos en las iniciativas de análisis de big data en las organizaciones incluyen la falta de habilidades de análisis internos y el alto costo de la contratación de profesionales con experiencia analítica, además de desafíos en la integración de sistemas Hadoop y almacenes de datos, aunque los vendedores están comenzando a ofrecer conexiones de software entre las tecnologías.

Este contenido se actualizó por última vez en noviembre 2012

Investigue más sobre Aplicaciones de negocios

ComputerWeekly.com.br
Close