Al hablar del concepto del Internet de las Cosas con todo nuestro entorno rodeado de wearables y sensores que registran información, el volumen y la capacidad de proceso que se requiere hace imprescindible abordar tecnologías específicas de gestión masiva de datos. 

A todos nosotros ya nos suena familiar el término Big Data dentro del campo de las TIC, simplemente considerándolo como el almacenamiento, tratamiento y ordenación de cantidades ingentes de información. Por eso, el gran desafío que nos encontramos es cómo estudiar toda esta información para tomar decisiones estratégicas orientadas a nuestros objetivos: aquellas empresas (incluyendo las PYMES) que incorporen la analítica de Big Data e interpreten los resultados de manera óptima, van a conseguir esa ventaja competitiva en tiempo y eficiencia. 

Además, la transformación digital ha convertido a ese especialista en Big Data, en uno de los perfiles profesionales más valorados por las compañías para la interpretación y análisis de esas grandes cantidades de datos, erigiéndose en experto en tecnologías específicas de análisis y distribución de ficheros en nodos autónomos como Hadoop, Mongo DB o Storm.

 

Las dimensiones del Big Data

En este entorno, los expertos hablan de las cuatro dimensiones de las tecnologías Big Data, las 4V, que son:

  • Volumen: nuestra tecnología Big Data debe ser capaz de gestionar un enorme volumen de datos que se están generando continuamente. Aquí usamos los términos tera, peta o exa bytes.
  • Variedad: dichos volúmenes de información se van a generar en multitud de formatos estructurados y no estructurados. Los estructurados (video, audio o texto) pueden ser tratados con aplicaciones relacionales convencionales, mientras que los no estructurados (que representan el 96% del total) necesitan entornos operativos multimodales específicos (entorno Hadoop). 
  • Velocidad: nuestras aplicaciones Big Data deben ser capaces de almacenar y trabajar en tiempo real con las fuentes generadoras de información. La capacidad de estructuración y análisis de dichos datos ha de ser tremendamente rápida, por lo que se deben minimizar los tiempos de procesamiento presentes en las bases de datos convencionales.
  • Veracidad: el sistema debe tener la capacidad de operar y estudiar inteligentemente el extenso volumen de datos con el propósito de conseguir información verídica y útil que nos permita mejorar la toma de decisiones.

En nuestro entorno, el Big Data Marketing engloba todos los datos implícitos y explícitos que llegan a nuestra organización a través del análisis web, el CRM o las redes sociales y que constituye en sí mismo una gran oportunidad para segmentar la experiencia de nuestros clientes, de principio a fin, personalizar cada interacción y todo el recorrido del cliente. 

Por su parte, los servicios y computación en la “nube” también surgieron en paralelo al Big Data aunque es en el año 2006 cuando corporaciones como Google o Amazon, comienzan a aplicar y utilizar el término de computación en la nube, ofreciendo servicios deslocalizados físicamente y  accesibles permanentemente. Se llega así una nueva situación y paradigma en el que todo nuestro entorno está siempre accesible y que no importa el lugar y el momento, cuando tengamos necesidad de generar un archivo, información, entrada, tabla, etc, la tendremos a nuestra disposición.

El cloud computing engloba tecnologías, servicios y aplicaciones similares a las que se utilizan con Internet y las transforma en utilidades de autoservicio. La utilización de la palabra cloud hace referencia dos conceptos principales:

  • Deslocalización: El cloud computing implica la “no” localización y la abstracción. Las aplicaciones se ejecutan en dispositivos físicos que no están especificados y la información se almacena en ubicaciones desconocidas. Además, el mantenimiento y la administración de los sistemas están externalizados y los usuarios pueden acceder a sus datos en cualquier momento, desde cualquier dispositivo y desde cualquier ubicación. Esto permite a las empresas por ejemplo, no tener personal especializado en la gestión y mantenimiento de la infraestructura.
  • Virtualización: La computación en la nube trabaja en entornos de sistemas virtuales, compartiendo, combinando y agrupando los recursos. Además, éstos deben estar disponibles con un elevado grado de agilidad y flexibilidad sin que los usuarios conozcan cuáles son los recursos físicos disponibles.

Resumiendo, el cloud computing ofrece recursos virtuales a través de la agrupación y compartición de recursos de carácter físico.

En base a todo lo que hemos comentado, es fácilmente deducible que el punto de encuentro entre  cloud computing y Big Data radica en la ventaja del almacenamiento y tratamiento distribuido de los datos que se consigue con una infraestructura en la nube.

El uso de cloud computing para entornos de Big Data, nos va a permitir escalar las infraestructuras necesarias y capacidades de almacenamiento en función de las necesidades empresariales. Cualquier compañía podrá tener acceso, en cada momento específico, a los recursos óptimos para el análisis y almacenamiento de los datos.

Además, la implantación en paralelo del cloud computing y el Big Data ha generado una nueva línea de servicios y empresas proveedoras que ofrecen la posibilidad de usar herramientas específicas del Big Data como Hadoop o MongoDB en la nube.

Finalmente, hay que señalar que todo el entorno empresarial e industrial se beneficia del Big Data y los servicios Cloud al poder disponer de información más precisa de lo que ocurre en toda la empresa, del principio al fin de la producción hasta la comercialización (con la gestión inteligente de los datos de los clientes), pasando por la búsqueda y análisis de nuestros competidores o la adaptación de los stocks a la demanda real. Y todo en la nube. No es de extrañar que se demande ya desde todos los ámbitos laborales personal cualificado con estos perfiles que permita la integración de estas dos tecnologías.