Los límites de la tecnología en las empresas

Industria 4.0

Por Ing. Jaime Ubidia MSc, Gerente General – Grupo Novatech.

Los temas relativos a Transformación Digital e Industria 4.0 han terminado de complicar el panorama tecnológico de las empresas.  Visto desde el lado de los clientes o usuarios, existen demasiados acrónimos que representan soluciones tecnológicas disponibles: ERP, CRM, SCM, PLM, HCM, SFA, IoT, BI, BD, SCP, SCE, WMS, EAM, S&OP, DP, entre otras.

Por supuesto, este conjunto de soluciones tecnológicas cumplen con el propósito de hacer más eficientes a las empresas, y en buena hora que existen.  De lo contrario no sería posible avanzar al ritmo de los requerimientos y necesidades de los clientes.

Esto no quedará ahí, sino que sin duda las aplicaciones empresariales seguirán evolucionando, como ha pasado en todos los campos: fotografía, juegos, copias, impresiones, telefonía, comunicaciones, equipos, etc., dejando obsoletas varias de ellas en plazos más cortos que antes. Hoy más que nunca es necesario entender los límites de las soluciones tecnológicas para lograr hacer inversiones más efectivas, al mismo tiempo que se logren reducir los costos y la complejidad.

Para no equivocarse tanto o reducir los riesgos de obsolescencia tecnológica, las empresas deben forzar a sus proveedores a configurar una estrategia de implementación de soluciones que haga sentido y que no se crucen.   Muchas de las soluciones disponibles hoy son el resultado de la búsqueda de mejora en áreas que no son cubiertas de manera sólida por soluciones generalistas,  o son el resultado de buscar especialidad, en áreas que no tienen la misma necesidad en todas las empresas.

Así, puede ser que para una empresa la implementación de un ERP sea ya un salto muy grande frente a su realidad actual, y con el manejo que tiene de sus “módulos”, es posible que no se requiera nada más por el momento; sin embargo para otras empresas, tal vez las opciones de análisis de información no serían suficientes con el ERP y requieren de una solución de BI, o el manejo de sus bodegas no sería suficientemente automatizado con el módulo del ERP, por lo que puede requerir de un WMS;  asimismo, en otras empresas la Planificación de Demanda es más sofisticada y ya no es suficiente con un módulo básico, o la relación con sus clientes no  puede ser cubierta con funcionalidad básica, sino sofisticada de CRM;  igualmente, el manejo de activos o de mantenimiento pueden requerir soluciones más especializadas que las que existen dentro de los ERPs, o incluso se empieza a sentir la necesidad de contar con soluciones de Big Data.

En todos estos casos se necesita entender, entre otros:

  1. La situación actual de la empresa
  2. La situación actual y las tendencias de su mercado y de su competencia
  3. La Visión hacia dónde quiere/necesita llegar y en qué tiempo
  4. Los recursos disponibles con los que cuenta
  5. La cultura empresarial

Una vez que este panorama esté claro, las empresas consultoras deben poder sugerir un Mapa de Solución con el detalle de las fases del proceso que conviene manejar para que la compañía pueda adoptar las soluciones tecnológicas de la manera más apropiada, conociendo los “límites de la tecnología”.

Este Mapa de Solución debe considerar los factores anteriores y la posibilidad de que las empresas puedan ser suficientemente flexibles en el tiempo, al menor costo posible.  A medida que las empresas avancen siempre habrán nuevas necesidades, pero el reto estará en diseñar un mapa de adopción de las tecnologías más probadas acorde con el crecimiento y los retos que las empresas enfrenten.


Grupo Novatech es la firma líder del Ecuador en consultoría estratégica y soluciones tecnológicas empresariales. Con 22 años de experiencia implementando proyectos para las empresas más exitosas del país y la región Andina, siempre a la vanguardia del conocimiento.

Errores gerenciales al analizar datos

3 errores que la mayoría de gerentes cometen al analizar datos

Por José Samaniego T., Coordinador de Marketing de Novatech.

Hoy en día, las empresas están constantemente alentadas a establecer estrategias para recopilar y analizar datos, e incluso son advertidas sobre las posibles consecuencias negativas de no hacerlo. Sin embargo, varios autores y especialistas en datos han sugerido que si bien los gerentes de las empresas son conscientes de la importancia que representan los datos en la toma de decisiones, y que, por tanto, constantemente están tratando de encontrar formas de recopilar una gran cantidad de información para extraer ideas concretas y útiles sobre las que puedan sacar provecho, así mismo han identificado que en su mayor parte no saben cómo hacerlo.

En este artículo exploramos 3 errores comunes que la mayoría de gerentes cometen cuando se trata de datos.

Error #1: No entender los temas de integración

El primer desafío que limita el valor de grandes volúmenes de datos a las empresas es la compatibilidad e integración. Una de las características clave del Big Data es que proviene de una variedad de fuentes. Sin embargo, si estos datos no son, naturalmente, congruentes o fáciles de integrar, la variedad de fuentes puede hacer que sea difícil para las empresas ahorrar dinero o crear verdadero valor para los clientes. Por ejemplo, una empresa puede tener datos sobre las compras del cliente y una base de datos separada sobre el comportamiento de navegación en línea, pero poco en cuanto a referencias cruzadas de estas dos fuentes de datos para comprender si cierto comportamiento de navegación puede ser predictivo para las ventas. Por tanto, las empresas pueden responder al reto pensando en qué forma les conviene guardar y estructurar sus datos, de tal manera que puedan integrarlos fácilmente desde todas las fuentes.

Error #2: Asumir que las correlaciones significan algo

El factor más importante que limita el valor de los datos para las empresas es la dificultad de establecer relaciones causales dentro de grupos de datos superpuestos. Grandes conjuntos de datos por lo general contienen una serie de observaciones muy similares o casi idénticos que pueden conducir a correlaciones espurias y como resultado inducir al error en la toma de decisiones.  Los típicos algoritmos de aprendizaje automático (machine learning) utilizados -y con razón- para analizar grandes volúmenes de datos e identificar correlaciones no necesariamente ofrecen causalidades y, por tanto, no permiten tener una visión gerencial accionable a simple vista. En otras palabras, la habilidad para convertir a los datos en algo valioso es ser capaz de pasar de meras correlaciones de observación a identificar correctamente qué correlaciones indican un patrón causal y cuáles deben constituir la base para la acción estratégica. Hacer esto, a menudo requiere mirar más allá de grandes volúmenes de datos y sus correlaciones.

Tomemos un ejemplo más específico. Imaginen un minorista de calzado que se anuncia a través de la web a los consumidores que previamente ya han visitado su sitio web. El análisis de los datos en bruto sugiere que los clientes expuestos a estos anuncios son más propensos a comprar zapatos. Sin embargo, estos consumidores que ya han visitado el sitio web ya han demostrado su interés en el minorista específico, incluso antes de ver el anuncio, y por lo tanto son más propensos a comprar que el consumidor promedio. ¿Fue eficaz el anuncio? Es difícil de decir. De hecho, los datos aquí no permiten ninguna inferencia causal sobre la efectividad de la comunicación de marketing. Para saber si este tipo de anuncios son eficaces, el minorista tiene que ejecutar una prueba o experimento aleatorio, donde un subconjunto de los consumidores escogidos al azar no es expuesto al anuncio. Mediante la comparación de las probabilidades de compra a través de los consumidores que fueron expuestos al anuncio y los que no lo fueron, la empresa puede determinar si la exposición de los consumidores a un anuncio los hizo más propensos a comprar. El valor es obtenido en estos casos, no principalmente por el acceso a los datos, sino por la capacidad de diseñar, implementar e interpretar experimentos significativos.

Implementar experimentos de campo, sacar las conclusiones correctas y tomar las medidas adecuadas no es necesariamente fácil. Sin embargo, las empresas de éxito han desarrollado la capacidad de diseñar, implementar, evaluar y luego actuar sobre los experimentos de campo significativos. Es esta cultura de “prueba y aprende”, junto con la habilidad para tomar decisiones sobre las percepciones y la comprensión de si las conclusiones pueden ser generalizadas, que hacen de los datos algo valioso.

Error #3: Subestimar las habilidades necesarias para el análisis

Además de la experimentación, otra habilidad potencial que las empresas pueden desarrollar es la capacidad de construir o adquirir mejores algoritmos (software) para hacer frente a grandes volúmenes de datos. De hecho, a menudo no es el tamaño de los datos, pero el proceso y sistema de análisis utilizado que determina la calidad de los resultados. Las empresas que asumen que grandes volúmenes de datos pueden traducirse en información sin contar con las herramientas adecuadas, o peor aún, sin tener que contratar a profesionales con la capacidad de rastrear los efectos causales en esos datos pueden resultar decepcionadas.

De hecho, es poco probable que los datos en sí mismo sean valiosos. Es sólo cuando se combina con la gestión, la ingeniería y la habilidad analítica para determinar el experimento que se debe aplicar a los datos, que estos resultan valiosos para las empresas. Esto es evidente cuando se compara el precio de los datos con el precio de las habilidades de procesamiento de datos. Los muchos contextos donde los datos son baratos en relación con el costo de tener las herramientas y el talento para procesarlo, sugiere que las habilidades de procesamiento son más importantes que los propios datos en la creación de valor para una empresa.

Si te gustó este artículo no dudes en compartirlo.

Tecnologías Exponenciales_industria 4.0

Tecnologías Exponenciales: el futuro comienza ahora

Machine Learning

Por Jorge Barahona.

En el pasado, la tecnología avanzó muy lentamente en comparación con las tecnologías actuales. Esta parecería ser una aseveración muy osada, sin embargo, veamos los siguientes hechos:

En los años 1950, las aerolíneas comerciales manejaban los siguientes datos: un Jet comercial volaba a una velocidad máxima de 846 Km/h, con una autonomía de vuelo de 5.000 Km y a una altura de 12.800 pies. En la actualidad, un Boeing 787 vuela a 950 km/h, su autonomía de vuelo ha subido a 15.000 km, y su altura de vuelo se ha incrementado hasta 13.100 pies. ¡La tasa de mejora tecnológica de un avión no llega a ser más del 2% anual en 65 años transcurridos![1]

Algo similar ocurre con la industria automotriz. Entre el año 1930 y el año 2011, la velocidad promedio de un automóvil era de 65 Km/h; ahora es de 250 km/h. El consumo de combustible entre esos mismos años era de 8.5 Lt/km, mientas que ahora es de 11.3 lt/Km. Asimismo, la potencia máxima era de 40 HP, y ahora es de 263 HP

Esto representa una tasa de mejora en 80 años de no más del 3% anual.

Por otro lado, si hablamos del precio, tanto de vuelos comerciales como del precio de adquisición de un auto, ambos son un 200% más caro. Sin embargo, prácticamente obtenemos las mismas cualidades y prestaciones del siglo pasado.

Luego de revisar estas cifras, parecería que las proyecciones tecnológicas siempre nos han quedado en deuda. Así pues, en el año 1965 se pronosticaba autos voladores y paseos tripulados a Marte en el año 2000; visiones de ciudades techadas; aparatos que modificarían el clima o anteojos para mirar a través de las paredes. Aún en la actualidad son todavía imposibles.

A pesar de lo que nos muestran estos datos, hay una tecnología que ha permitido cambiar estos continuos errores en los pronósticos de los avances tecnológicos: la tecnología computacional ha demostrado crecer a ritmos exponenciales.

Curva de tecnología computacional

La Ley de Moore es un término informático originado en la década de 1960 y que establece que la velocidad del procesador o el poder de procesamiento total de las computadoras se duplica cada doce meses. En un principio, la norma no era muy popular pero sí se sigue utilizando hasta el día de hoy. Con los precios sucede lo contrario: Mientras las potencias se duplican, los precios caen en picada.

Si aplicáramos las mismas tasas de mejora tecnológica que ha experimentado la computación, en los últimos 40 años, la realidad automotriz y aeronáutica sería otra.

Por ejemplo, un jet comercial del año 2017 debería volar a una velocidad de 749 veces la velocidad la luz, y la autonomía de viaje sin cargar combustible sería de 0.55 años Luz.

Un auto promedio modelo 2017 viajaría a una velocidad de 54 mil veces la velocidad de la luz, y su motor debería generar una potencia de 15 veces más que la energía que produce el planeta Tierra en todo un año.

Una de las tecnologías que más expectativa ha causado en el mundo es la inteligencia artificial o lo que comercialmente ahora se denomina Machine Learning.[2]

Inteligencia artifcial

Este tipo de tecnología también tiene predicciones futuristas (Año 2024: Traducir cualquier tipo de lenguajes; Año 2026: escribir ensayos; Año 2027: Conducir Camiones, Año 2053: sustituir cirujanos).

Las predicciones, obviamente, pueden fallar. No sólo siendo demasiado optimistas, sino también siendo excesivamente conservadoras.

De hecho, para los expertos, la victoria de los algoritmos inteligentes sobre los humanos en un juego oriental de estrategia tan complejo como el Go tardaría aún 12 años. Pero ¡se necesitaron sólo un par de meses!, desde la conferencia donde se hizo la encuesta, para que un sistema de Google (AlphaGo) batiera al campeón mundial coreano. Hace pocas semanas, un AlphaGo mejorado ha ganado al nuevo campeón mundial (chino), de forma aún más rápida, más contundente y más brillante. Y el progreso en vehículos auto-conducidos ha explotado en los últimos meses. ¿Podría ser que, mucho antes de lo que piensan los expertos, veamos algoritmos inteligentes en todas partes? Nuevas y fascinantes preguntas aparecen: ¿puede un robot escribir un Best Seller del New York Times? (los expertos así lo afirman). ¿Podría ganar un premio nacional de literatura? ¿O un Premio Nobel de economía, o de química?[3]

Mientras estas alucinantes predicciones se cumplen, hay verdaderas aplicaciones actuales de Machine Learning que pueden llevar los negocios a umbrales de productividad y rentabilidad no planificados:

  • Detección de anomalías y fraudes en todo tipo de comercio: Las redes neuronales pueden detectar en tiempo real, dónde se producen fugas fraudulentas de activos.
  • Detección de hábitos de consumos especiales y tendencias en el comportamiento de clientes.
  • Segmentaciones especializadas de clientes para enfocar campañas y promociones publicitarias.
  • Recomendaciones de productos y servicios basados en preferencias pasadas y compras históricas.
  • Diagnóstico y prescripción médica con base en estudios de genomas y muestras de sangre.
  • Seguros personales configurados por un computador determinado con base en el estilo de vida, hobbies, factores nutricionales, laborales, del comprador y muchos ejemplos más

A través de soluciones diseñadas con algoritmos complejos, pero de rápida implementación, Novatech le puede ayudar a adelantar el futuro en su compañía y generar beneficios tangibles con tecnología actual y de vanguardia. ¡El futuro ha llegado!

[1] Santiago Bilinkis – El Futuro del Futuro – 2011

[2] Machine Learning: Capacidad de una computadora de auto-aprender, sin que deba ser explícitamente programada para este efecto.

[3] Artículo publicado originalmente en la revista digital Viaempresa

Artículo escrito por Jorge Barahona.