3 errores que la mayoría de gerentes comenten al analizar datos

Por José Samaniego T.

Hoy en día, las empresas están constantemente alentadas a establecer estrategias para recopilar y analizar datos, e incluso son advertidas sobre las posibles consecuencias negativas de no hacerlo. Sin embargo, varios autores y especialistas en datos han sugerido que si bien los gerentes de las empresas son conscientes de la importancia que representan los datos en la toma de decisiones, y que, por tanto, constantemente están tratando de encontrar formas de recopilar una gran cantidad de información para extraer ideas concretas y útiles sobre las que puedan sacar provecho, así mismo han identificado que en su mayor parte no saben cómo hacerlo.

En este artículo exploramos 3 errores comunes que la mayoría de gerentes cometen cuando se trata de datos.

Error #1: No entender los temas de integración

El primer desafío que limita el valor de grandes volúmenes de datos a las empresas es la compatibilidad e integración. Una de las características clave del Big Data es que proviene de una variedad de fuentes. Sin embargo, si estos datos no son, naturalmente, congruentes o fáciles de integrar, la variedad de fuentes puede hacer que sea difícil para las empresas ahorrar dinero o crear verdadero valor para los clientes. Por ejemplo, una empresa puede tener datos sobre las compras del cliente y una base de datos separada sobre el comportamiento de navegación en línea, pero poco en cuanto a referencias cruzadas de estas dos fuentes de datos para comprender si cierto comportamiento de navegación puede ser predictivo para las ventas. Por tanto, las empresas pueden responder al reto pensando en qué forma les conviene guardar y estructurar sus datos, de tal manera que puedan integrarlos fácilmente desde todas las fuentes.

Error #2: Asumir que las correlaciones significan algo

El factor más importante que limita el valor de los datos para las empresas es la dificultad de establecer relaciones causales dentro de grupos de datos superpuestos. Grandes conjuntos de datos por lo general contienen una serie de observaciones muy similares o casi idénticos que pueden conducir a correlaciones espurias y como resultado inducir al error en la toma de decisiones.  Los típicos algoritmos de aprendizaje automático (machine learning) utilizados -y con razón- para analizar grandes volúmenes de datos e identificar correlaciones no necesariamente ofrecen causalidades y, por tanto, no permiten tener una visión gerencial accionable a simple vista. En otras palabras, la habilidad para convertir a los datos en algo valioso es ser capaz de pasar de meras correlaciones de observación a identificar correctamente qué correlaciones indican un patrón causal y cuáles deben constituir la base para la acción estratégica. Hacer esto, a menudo requiere mirar más allá de grandes volúmenes de datos y sus correlaciones.

Tomemos un ejemplo más específico. Imaginen un minorista de calzado que se anuncia a través de la web a los consumidores que previamente ya han visitado su sitio web. El análisis de los datos en bruto sugiere que los clientes expuestos a estos anuncios son más propensos a comprar zapatos. Sin embargo, estos consumidores que ya han visitado el sitio web ya han demostrado su interés en el minorista específico, incluso antes de ver el anuncio, y por lo tanto son más propensos a comprar que el consumidor promedio. ¿Fue eficaz el anuncio? Es difícil de decir. De hecho, los datos aquí no permiten ninguna inferencia causal sobre la efectividad de la comunicación de marketing. Para saber si este tipo de anuncios son eficaces, el minorista tiene que ejecutar una prueba o experimento aleatorio, donde un subconjunto de los consumidores escogidos al azar no es expuesto al anuncio. Mediante la comparación de las probabilidades de compra a través de los consumidores que fueron expuestos al anuncio y los que no lo fueron, la empresa puede determinar si la exposición de los consumidores a un anuncio los hizo más propensos a comprar. El valor es obtenido en estos casos, no principalmente por el acceso a los datos, sino por la capacidad de diseñar, implementar e interpretar experimentos significativos.

Implementar experimentos de campo, sacar las conclusiones correctas y tomar las medidas adecuadas no es necesariamente fácil. Sin embargo, las empresas de éxito han desarrollado la capacidad de diseñar, implementar, evaluar y luego actuar sobre los experimentos de campo significativos. Es esta cultura de “prueba y aprende”, junto con la habilidad para tomar decisiones sobre las percepciones y la comprensión de si las conclusiones pueden ser generalizadas, que hacen de los datos algo valioso.

Error #3: Subestimar las habilidades necesarias para el análisis

Además de la experimentación, otra habilidad potencial que las empresas pueden desarrollar es la capacidad de construir o adquirir mejores algoritmos (software) para hacer frente a grandes volúmenes de datos. De hecho, a menudo no es el tamaño de los datos, pero el proceso y sistema de análisis utilizado que determina la calidad de los resultados. Las empresas que asumen que grandes volúmenes de datos pueden traducirse en información sin contar con las herramientas adecuadas, o peor aún, sin tener que contratar a profesionales con la capacidad de rastrear los efectos causales en esos datos pueden resultar decepcionadas.

De hecho, es poco probable que los datos en sí mismo sean valiosos. Es sólo cuando se combina con la gestión, la ingeniería y la habilidad analítica para determinar el experimento que se debe aplicar a los datos, que estos resultan valiosos para las empresas. Esto es evidente cuando se compara el precio de los datos con el precio de las habilidades de procesamiento de datos. Los muchos contextos donde los datos son baratos en relación con el costo de tener las herramientas y el talento para procesarlo, sugiere que las habilidades de procesamiento son más importantes que los propios datos en la creación de valor para una empresa.

Si te gustó este artículo no dudes en compartirlo.