Durante décadas, TI ha confiado en la inteligencia comercial convencional y el almacenamiento de datos, con requisitos bien definidos e informes predefinidos..

Ahora estamos en una nueva era de análisis de big data, donde el descubrimiento es parte del proceso, por lo que los objetivos cambian a medida que surgen nuevas perspectivas. Esto requiere una infraestructura y un proceso que puede ir de forma rápida y sin problemas desde la exploración de datos a la información empresarial a la información procesable.

Para transformar rápidamente los datos en valor comercial, una arquitectura de big data debe verse como una cadena de suministro que puede administrar y procesar el volumen, la variedad y la velocidad de los datos. Para empezar, cada empresa necesita un proceso de big data. Ese proceso se divide en tres pasos:

1. Identificar objetivos de negocio.

Nadie debe implementar Big Data sin una visión general de lo que se obtendrá. La base para desarrollar estos objetivos es su equipo de análisis y ciencia de datos que trabaja en estrecha colaboración con expertos en la materia. Los científicos, analistas y desarrolladores de datos deben colaborar para priorizar los objetivos comerciales, generar perspectivas y validar hipótesis y modelos analíticos..

2. Hacer operativos los datos de Big Data.

Es imperativo que el equipo de ciencia de datos trabaje junto con el equipo de devops. Ambos grupos deben garantizar que las ideas y los objetivos sean operativos, con procesos y métodos repetibles, y que comuniquen información procesable a los interesados, clientes y socios..

3. Construir una tubería de datos grandes

La arquitectura de los sistemas de análisis y gestión de datos debe facilitar la colaboración y eliminar los pasos manuales. La cadena de suministro de big data consta de cuatro operaciones clave necesarias para convertir datos sin procesar en información procesable. Éstos incluyen:

  • Adquirir y almacenar: Acceda a todo tipo de datos desde cualquier plataforma en cualquier latencia a través de adaptadores para sistemas operativos y heredados, redes sociales y datos de máquinas, con la capacidad de recopilar y almacenar datos en modo de lotes, en tiempo real y casi en tiempo real..
  • Refinar y enriquecer: Integre, limpie y prepare datos para el análisis, al tiempo que recopila metadatos técnicos y operativos para etiquetar y enriquecer los conjuntos de datos, lo que facilita su búsqueda y reutilización..
  • Explorar y curar: Busque datos y visualice y descubra patrones, tendencias y perspectivas con un impacto potencial en el negocio; cura y rige aquellos conjuntos de datos que tienen el mayor valor comercial.
  • Distribuir y gestionar: Transforme y distribuya información procesable a los usuarios finales a través de dispositivos móviles, aplicaciones empresariales y otros medios. Gestione y respalde los acuerdos de nivel de servicio con una arquitectura de implementación flexible.

Una vez que se establece el proceso, la arquitectura de referencia de big data puede admitir estos cuatro patrones comunes de casos de uso de big data, que permiten una inteligencia de negocios accionable: optimización del almacén de datos, análisis de clientes de 360 ​​grados, inteligencia operativa en tiempo real y lagos de datos administrados.

Optimización del almacén de datos.

A medida que crecen los volúmenes de datos, las empresas gastan cada vez más en el entorno de almacenamiento de datos. El problema surge cuando la capacidad en el entorno se consume demasiado rápido, lo que en última instancia obliga a las organizaciones a realizar actualizaciones costosas en el almacenamiento y la capacidad de procesamiento..

Una forma de hacer frente al crecimiento de datos de gran volumen es implementar Hadoop, que presenta una solución económica para almacenar y procesar datos a gran escala. En lugar de almacenar datos sin procesar que provienen de los sistemas de origen en el almacén, simplemente almacene los datos de origen originales en Hadoop.

Desde allí, puede preparar y preprocesar los datos antes de mover los resultados (un conjunto de datos mucho más pequeño) de vuelta al almacén de datos para la inteligencia empresarial y los informes analíticos. Hadoop no reemplaza el almacén de datos tradicional, pero proporciona una solución excelente y complementaria.

Análisis de clientes de 360 ​​grados

La mayoría de las empresas desean comprender mejor a sus clientes para aumentar la lealtad y la retención, y aumentar la venta de productos o servicios. Para hacerlo, necesita desarrollar una vista de 360 ​​grados del cliente.

El software de CRM siempre ha dicho que hacer esto. Sin embargo, hoy en día abundan los nuevos tipos de datos sobre individuos a través de canales sociales, móviles y de comercio electrónico, así como registros de servicio al cliente, telemática, datos de sensores y datos de flujo de clics basados ​​en interacciones web..

Una verdadera vista de 360 ​​grados ahora significa que debe poder acceder a nuevos tipos de datos junto con los datos tradicionales, combinarlos, transformarlos y analizar todo para descubrir nuevas perspectivas sobre los clientes y prospectos.

Este mayor nivel de comprensión, combinado con los algoritmos de big data para el análisis predictivo, permite a las organizaciones predecir el comportamiento del cliente con mayor precisión y proporcionar recomendaciones significativas. Conocer mejor a sus clientes, incluido lo que están diciendo y haciendo, le permite ofrecerles más valor.

Inteligencia operacional en tiempo real

La inteligencia operativa en tiempo real es la capacidad de monitorear y (de manera óptima) responder a los eventos en tiempo real. Un ejemplo de esto en ventas o marketing se conoce como "marketing hasta el momento".

Por ejemplo, a través de un dispositivo móvil, a un asociado de ventas se le puede proporcionar información sobre un cliente tan pronto como él o ella ingrese a la tienda, incluidas las experiencias recientes de ese cliente en el sitio de comercio electrónico de la tienda..