Los límites de la tecnología en las empresas

Industria 4.0

Por Ing. Jaime Ubidia MSc, Gerente General – Grupo Novatech.

Los temas relativos a Transformación Digital e Industria 4.0 han terminado de complicar el panorama tecnológico de las empresas.  Visto desde el lado de los clientes o usuarios, existen demasiados acrónimos que representan soluciones tecnológicas disponibles: ERP, CRM, SCM, PLM, HCM, SFA, IoT, BI, BD, SCP, SCE, WMS, EAM, S&OP, DP, entre otras.

Por supuesto, este conjunto de soluciones tecnológicas cumplen con el propósito de hacer más eficientes a las empresas, y en buena hora que existen.  De lo contrario no sería posible avanzar al ritmo de los requerimientos y necesidades de los clientes.

Esto no quedará ahí, sino que sin duda las aplicaciones empresariales seguirán evolucionando, como ha pasado en todos los campos: fotografía, juegos, copias, impresiones, telefonía, comunicaciones, equipos, etc., dejando obsoletas varias de ellas en plazos más cortos que antes. Hoy más que nunca es necesario entender los límites de las soluciones tecnológicas para lograr hacer inversiones más efectivas, al mismo tiempo que se logren reducir los costos y la complejidad.

Para no equivocarse tanto o reducir los riesgos de obsolescencia tecnológica, las empresas deben forzar a sus proveedores a configurar una estrategia de implementación de soluciones que haga sentido y que no se crucen.   Muchas de las soluciones disponibles hoy son el resultado de la búsqueda de mejora en áreas que no son cubiertas de manera sólida por soluciones generalistas,  o son el resultado de buscar especialidad, en áreas que no tienen la misma necesidad en todas las empresas.

Así, puede ser que para una empresa la implementación de un ERP sea ya un salto muy grande frente a su realidad actual, y con el manejo que tiene de sus “módulos”, es posible que no se requiera nada más por el momento; sin embargo para otras empresas, tal vez las opciones de análisis de información no serían suficientes con el ERP y requieren de una solución de BI, o el manejo de sus bodegas no sería suficientemente automatizado con el módulo del ERP, por lo que puede requerir de un WMS;  asimismo, en otras empresas la Planificación de Demanda es más sofisticada y ya no es suficiente con un módulo básico, o la relación con sus clientes no  puede ser cubierta con funcionalidad básica, sino sofisticada de CRM;  igualmente, el manejo de activos o de mantenimiento pueden requerir soluciones más especializadas que las que existen dentro de los ERPs, o incluso se empieza a sentir la necesidad de contar con soluciones de Big Data.

En todos estos casos se necesita entender, entre otros:

  1. La situación actual de la empresa
  2. La situación actual y las tendencias de su mercado y de su competencia
  3. La Visión hacia dónde quiere/necesita llegar y en qué tiempo
  4. Los recursos disponibles con los que cuenta
  5. La cultura empresarial

Una vez que este panorama esté claro, las empresas consultoras deben poder sugerir un Mapa de Solución con el detalle de las fases del proceso que conviene manejar para que la compañía pueda adoptar las soluciones tecnológicas de la manera más apropiada, conociendo los “límites de la tecnología”.

Este Mapa de Solución debe considerar los factores anteriores y la posibilidad de que las empresas puedan ser suficientemente flexibles en el tiempo, al menor costo posible.  A medida que las empresas avancen siempre habrán nuevas necesidades, pero el reto estará en diseñar un mapa de adopción de las tecnologías más probadas acorde con el crecimiento y los retos que las empresas enfrenten.


Grupo Novatech es la firma líder del Ecuador en consultoría estratégica y soluciones tecnológicas empresariales. Con 22 años de experiencia implementando proyectos para las empresas más exitosas del país y la región Andina, siempre a la vanguardia del conocimiento.

Errores gerenciales al analizar datos

3 errores que la mayoría de gerentes cometen al analizar datos

Por José Samaniego T., Coordinador de Marketing de Novatech.

Hoy en día, las empresas están constantemente alentadas a establecer estrategias para recopilar y analizar datos, e incluso son advertidas sobre las posibles consecuencias negativas de no hacerlo. Sin embargo, varios autores y especialistas en datos han sugerido que si bien los gerentes de las empresas son conscientes de la importancia que representan los datos en la toma de decisiones, y que, por tanto, constantemente están tratando de encontrar formas de recopilar una gran cantidad de información para extraer ideas concretas y útiles sobre las que puedan sacar provecho, así mismo han identificado que en su mayor parte no saben cómo hacerlo.

En este artículo exploramos 3 errores comunes que la mayoría de gerentes cometen cuando se trata de datos.

Error #1: No entender los temas de integración

El primer desafío que limita el valor de grandes volúmenes de datos a las empresas es la compatibilidad e integración. Una de las características clave del Big Data es que proviene de una variedad de fuentes. Sin embargo, si estos datos no son, naturalmente, congruentes o fáciles de integrar, la variedad de fuentes puede hacer que sea difícil para las empresas ahorrar dinero o crear verdadero valor para los clientes. Por ejemplo, una empresa puede tener datos sobre las compras del cliente y una base de datos separada sobre el comportamiento de navegación en línea, pero poco en cuanto a referencias cruzadas de estas dos fuentes de datos para comprender si cierto comportamiento de navegación puede ser predictivo para las ventas. Por tanto, las empresas pueden responder al reto pensando en qué forma les conviene guardar y estructurar sus datos, de tal manera que puedan integrarlos fácilmente desde todas las fuentes.

Error #2: Asumir que las correlaciones significan algo

El factor más importante que limita el valor de los datos para las empresas es la dificultad de establecer relaciones causales dentro de grupos de datos superpuestos. Grandes conjuntos de datos por lo general contienen una serie de observaciones muy similares o casi idénticos que pueden conducir a correlaciones espurias y como resultado inducir al error en la toma de decisiones.  Los típicos algoritmos de aprendizaje automático (machine learning) utilizados -y con razón- para analizar grandes volúmenes de datos e identificar correlaciones no necesariamente ofrecen causalidades y, por tanto, no permiten tener una visión gerencial accionable a simple vista. En otras palabras, la habilidad para convertir a los datos en algo valioso es ser capaz de pasar de meras correlaciones de observación a identificar correctamente qué correlaciones indican un patrón causal y cuáles deben constituir la base para la acción estratégica. Hacer esto, a menudo requiere mirar más allá de grandes volúmenes de datos y sus correlaciones.

Tomemos un ejemplo más específico. Imaginen un minorista de calzado que se anuncia a través de la web a los consumidores que previamente ya han visitado su sitio web. El análisis de los datos en bruto sugiere que los clientes expuestos a estos anuncios son más propensos a comprar zapatos. Sin embargo, estos consumidores que ya han visitado el sitio web ya han demostrado su interés en el minorista específico, incluso antes de ver el anuncio, y por lo tanto son más propensos a comprar que el consumidor promedio. ¿Fue eficaz el anuncio? Es difícil de decir. De hecho, los datos aquí no permiten ninguna inferencia causal sobre la efectividad de la comunicación de marketing. Para saber si este tipo de anuncios son eficaces, el minorista tiene que ejecutar una prueba o experimento aleatorio, donde un subconjunto de los consumidores escogidos al azar no es expuesto al anuncio. Mediante la comparación de las probabilidades de compra a través de los consumidores que fueron expuestos al anuncio y los que no lo fueron, la empresa puede determinar si la exposición de los consumidores a un anuncio los hizo más propensos a comprar. El valor es obtenido en estos casos, no principalmente por el acceso a los datos, sino por la capacidad de diseñar, implementar e interpretar experimentos significativos.

Implementar experimentos de campo, sacar las conclusiones correctas y tomar las medidas adecuadas no es necesariamente fácil. Sin embargo, las empresas de éxito han desarrollado la capacidad de diseñar, implementar, evaluar y luego actuar sobre los experimentos de campo significativos. Es esta cultura de “prueba y aprende”, junto con la habilidad para tomar decisiones sobre las percepciones y la comprensión de si las conclusiones pueden ser generalizadas, que hacen de los datos algo valioso.

Error #3: Subestimar las habilidades necesarias para el análisis

Además de la experimentación, otra habilidad potencial que las empresas pueden desarrollar es la capacidad de construir o adquirir mejores algoritmos (software) para hacer frente a grandes volúmenes de datos. De hecho, a menudo no es el tamaño de los datos, pero el proceso y sistema de análisis utilizado que determina la calidad de los resultados. Las empresas que asumen que grandes volúmenes de datos pueden traducirse en información sin contar con las herramientas adecuadas, o peor aún, sin tener que contratar a profesionales con la capacidad de rastrear los efectos causales en esos datos pueden resultar decepcionadas.

De hecho, es poco probable que los datos en sí mismo sean valiosos. Es sólo cuando se combina con la gestión, la ingeniería y la habilidad analítica para determinar el experimento que se debe aplicar a los datos, que estos resultan valiosos para las empresas. Esto es evidente cuando se compara el precio de los datos con el precio de las habilidades de procesamiento de datos. Los muchos contextos donde los datos son baratos en relación con el costo de tener las herramientas y el talento para procesarlo, sugiere que las habilidades de procesamiento son más importantes que los propios datos en la creación de valor para una empresa.

Si te gustó este artículo no dudes en compartirlo.