Introducción
En el mundo del análisis de información, el tamaño del conjunto de datos comienza a ser relevante luego que (primeramente) hay datos para analizar. De forma similar que la acumulación de agua de lluvia comienza a ser relevante luego de que pasan días de lluvias intensas.
En QBIC tenemos un dicho coloquial que cita “…nosotros trabajamos con “the data” desde antes que fuera “Big Data..”.
Y con esto decimos a nuestros clientes y colaboradores, primero tiene que existir algo, para que luego su tamaño tenga relevancia.
Un poco de historia
En los últimos tiempos, se ha expuesto que todo lo que hacemos en el mundo real, deja un huella en el mundo digital. O dicho de otra forma, casi todo lo que hacemos genera datos que son capturados y almacenados en algún lado.
La generación de grandes volúmenes de datos no es una novedad. Existe desde hace mucho tiempo, y no por nada, Mr. Tanembaum editó su primer libro de redes de computadoras en 1981 (hace casi 40 años).
Es decir, que la captura de datos ya tiene mucho tiempo, y lo que para nosotros implica “poco”, hace tres décadas implicaba “mucho”.
Con esto, queremos decir que desde ese momento, lidiar con los datos para transformarlos en información, comenzaba a ser materia de estudio, cuyo nombre es “Business Intelligence”, y su cometido es desde siempre brindar soporte a los procesos de toma de decisiones.
Desde la sombras
Sin embargo, el término “Business Intelligence”, que engloba las tareas de recopilación, y exposición de información, nunca ha tomado la relevancia que sus hermanos: el “Big Data” y “Machine Learning” han logrado en pocos años. Y esto se debe a que los resultados de éstos son mucho más atractivos, porque éstos (resultados) son nombrados por muchos como “Inteligencia Artificial” o “AI”.
Quienes estamos en el “Data” desde antes de que fuese “Big”, y antes que fuese “AI”, sabemos que hay muchas oportunidades en el viejo y querido “Business Intelligence”. Sencillamente porque los datos ya están disponibles, listos para transformarlos en oportunidades en la generación de valor.
Hablemos todos el mismo idioma
La gran mayoría de las organizaciones, sin importar su porte, apoyan sus operaciones mediante sistemas. Por ejemplo, sistemas contables, de recursos humanos, nómina, payrolling, producción, almacenamiento, logística, puntos de ventas, etc. etc. etc., y en todos los casos generan una cantidad importante de datos.
Estos datos están almacenados de una forma óptima para la realización de las operaciones de la empresa, pero no están preparados para que sean insumos de información relevante para los procesos de toma de decisiones. Simplemente porque no fueron diseñados para eso.
Es en este punto que es necesario intervenir para que, de alguna forma, estos datos almacenados sean transformados en información, y es acá donde nace el concepto de “Data Warehouse”, cuyo cometido es homogeneizar los datos tal que sean transformados en información legible, y que sean propicios en la generación de valor y oportunidades.
El Data Warehouse es el espacio donde todos los datos se han homogeneizado y depurado para que no existan lecturas divergentes. Es decir, que todo lo que allí está almacenado posee las garantías de calidad que aseguran que éstos datos sean fiables y únicos.
Un ejemplo de esto, es que para el sistema de ventas, el cliente es identificado por su documento de identidad, y para el CRM por su email. Y a los efectos del análisis, es la misma persona.
Esto es lo que resuelve el viejo y querido Business Intelligence, con su compañero de batalla, el Data Warehouse. Y sin éstos, difícilmente haya un Big Data para explotar, ni Machine Learning que pueda aprender lo suficiente para generar la tan esperada Inteligencia Artificial.