1. Una introducción necesaria: el crecimiento exponencial del entorno digital y sus datos
El matemático londinense Clive Humby creó una famosa frase: «El dado es el nuevo petróleo». Esta expresión se generó a partir de 2 observaciones: en los últimos 10 años, las empresas de Tecnologías de la Información y las Comunicaciones ocuparon 7 de los 10 primeros lugares de las empresas con mayor valor de mercado en el mundo, cuando hace 10 años solo habían 2. Y, con la existencia de una cantidad gigantesca de datos y la capacidad de procesarlos de forma inteligente para sustentar decisiones, en muchos casos a través de los algoritmos de Matemática y Estadística, como Inteligencia Artificial y Machine Learning, parece estar dando lugar a una nueva era de optimización de procesos, y la aparición de nuevos modelos de negocio que se ha denominado Transformación Digital o Industria 4.0.
El advenimiento de la Transformación Digital, o Industria 4.0, está optimizando procesos y creando disrupciones en los modelos operativos existentes. Pocas áreas parecen tan capaces de optimizarse tanto como la Gestión de Activos. La empresa canadiense OPEN TEXT publicó en 2018 el resultado de una encuesta sobre Transformación Digital realizada en todos los continentes, que abarcó a casi 200 ejecutivos, el 14% de los cuales son Miembros del Consejo de Administración de sus organizaciones. Entre las diversas preguntas, una fue: «¿Qué partes de la cadena de valor de petróleo y gas cree que se beneficiarán más de la transformación digital?» La respuesta fue (era posible señalar más de un área):
- Integridad de activos y mantenimiento: 58%
- Desarrollo de producción: 40%
- Perforación: 27%
- Refinerías: 19%
- Oleoductos: 13%
- Procesamiento de gas: 11%
- Transporte (cisternas y camiones): 9%
- Marketing de productos: 8%
- Almacenamiento: 6%
- Construcción: 6%
- Generación de energía: 5%
- Licuefacción: 5%
- Otros: 12%
Todas estas transformaciones se generaron a partir de algunos eventos en el área de Tecnologías de la Información:
- Exponencialidad en el crecimiento de la capacidad del procesador. Durante décadas los procesadores aumentan su velocidad exponencialmente y tienen costos decrecientes. Para citar ejemplos extremos, la primera computadora comercial, un UNIVAC, costó $ 1.5M. Hoy en día existen computadoras con velocidades mucho más altas que las pioneras UNIVAC, y con precios mucho más bajos.
- La conectividad de los dispositivos móviles con otras personas y entidades está cada vez más extendida, proporcionando una mayor y más rápida colaboración, y con los recursos de Información de las empresas, permitiendo la creación de nuevos procesos de toma de decisión o aceleración de existentes.
- Parte de esta transformación también está provocada por la caída del precio de los sensores a menos de 1/3 en una década, provocando la viabilidad de soluciones que existen desde hace algún tiempo. Lo que diferencia el momento actual es que la disminución del costo de los sensores, sumado al aumento de la velocidad y la disminución del costo de los procesadores, posibilita su aplicación de manera más generalizada.
Esta enorme cantidad de operaciones será hecha posible gracias a procesadores más potentes y también al procesamiento en la nube, buscando la alternativa más confiable y rentable. A partir de este gigantesco aumento de datos, que proporciona una inmensa cantidad de información operativa en tiempo real, muchos se refieren a la transformación digital como una “transformación impulsada por datos”. Como Clive Humby preguntan: «¿Son los datos el nuevo petróleo?»
2. La evolución del software
Junto a la evolución del hardware está la del software. Al inicio de los procesadores, fueron capaces de realizar las cuatro operaciones matemáticas elementales, así como el cálculo de ecuaciones y algoritmos que, a través de fórmulas, utilizaban esas operaciones. Tomemos ahora, para ejemplificar la que es quizás la aplicación digital más popular del mundo, el automóvil autónomo:
Automatiza los procedimientos que realiza el conductor, como acelerar, frenar, mover el volante, encender luces y faros, señalizar cambios de carril para otros vehículos, etc., desde señales de tráfico, contactos con coches u obstáculos cercanos, velocidad máxima de las rutas, etc. Estas circunstancias señalan reglas operativas en la mente del conductor, que no son operaciones matemáticas, ecuaciones o algoritmos. Podríamos llamarlas «reglas de negocio». Actualmente, el software es capaz de reproducir estas “reglas de negocio” y, con la automatización, activar los mismos frenos, acelerar, mover volantes, etc., que el conductor simulado.
3. Dos ejemplos de uso de matemáticas y estadísticas en mantenimiento
3.1. Backlog y teoría de las colas
Uno de los indicadores más tradicionales en Mantenimiento es el backlog. Muestra el número de Órdenes de Mantenimiento que esperan ser ejecutadas en un momento dado. Sin entrar en el tema de las prioridades, el backlog es en realidad una lista de espera. Su uso principal es servir como indicador para medir el número de personas de mantenimiento. Como todos sabemos, el Gerente de Mantenimiento, en este tema, suele estar entre dos fuegos: los ejecutivos a los que reporta le dicen que tiene demasiada gente, mientras que los que le reportan le dicen que tiene muy poca gente.
En realidad, el backlog, en realidad, desde un punto de vista matemático, es acercado por una parte de la teoría llamada Teoría de las colas. Si hay muy pocas personas, es probable que la acumulación de trabajo sea demasiado alta y que incluso se produzcan pérdidas de ganancias. Si hay demasiada gente, habrá un costo inútil, que también puede ser elevado.
Las colas de espera se han estudiado desde 1905, cuando un ingeniero danés llamado Erlang estudió este proceso al estudiar dimensionamiento de la red telefónica de Copenhague. En resumen, cada problema de cola tiene 2 parámetros fundamentales: la tasa de llegadas en la cola (si no hay llegada de personas, vehículos o máquinas para reparar, no habrá cola); y el ritmo de las reparaciones (si no hay quien repara, o proporcione los medios para atender la cola, la cola tiende a infinito).
Hay un tercer indicador clave en la cola: el factor de utilización, que es la fracción de la tasa de llegada / tasa de servicio. Si esta fracción es mayor que 1, es decir, si la tasa de llegada es mayor que la del servicio, la cola tenderá a infinito. Un último dato muy relevante: tanto la tasa de llegada como la tasa de servicio son probabilísticas. Es decir, no todos los días llega la misma cantidad de servicios, ni se atienden las mismas cantidades de ordenes de mantenimiento. En mantenimiento, hay días mejores y peores. A continuación se muestra una curva genérica que muestra este fenómeno:
Aunque la forma de esta curva varía según las distribuciones de llegadas y servicio, en general, cuando el factor de uso tiende a 1, esta curva tiende rápidamente al infinito. Cuando el factor de utilización es bajo (es decir, hay un exceso en el mantenimiento efectivo), el valor de la cola es demasiado pequeño o cero.
Hace unos 15 años, el Gerente de Mantenimiento de una empresa eléctrica en Brasil me ha contactado. Por razones contractuales, estoy obligado a mantener la confidencialidad del nombre de la compañía. En ese momento la ANEEL (Agencia Reguladora de Electricidad en Brasil) tenía una nueva determinación de que, en caso de un fallo de un equipo, era obligatorio que el equipo de reparación saldría en promedio en 30 minutos. Y en la región de la capital del estado, la más grande de las regiones a las que asistió la empresa, éste tiempo de servicio fue de 1 hora y 15 minutos en promedio.
Creían en algo así como una «regla inversa de tres»: para reducir el tiempo a 1/3 sería necesario tener el triple del personal de mantenimiento. Además de un enorme aumento en el costo, temían por la pérdida de calidad del gran número de profesionales que serían admitidos. Como conocía la forma de la curva anterior del Factor de Utilización, contesté que no creía que este aumento fuera necesario para triplicar el efectivo, tal vez crecería alrededor del 20%. Me contrataron para estudiar el problema. Para resumir, presento en el siguiente cuadro un resumen de la hoja de cálculo para la región de la Capital del Estado, en el período de 8 a 16 horas:
Apunto primero al tamaño del problema: 10.048 Órdenes de Servicio mensuales, solo en el período de 8 am a 4 pm, días hábiles. Debo señalar que era la región más grande y en el período con mayor número de llamadas. Pero llamo su atención sobre el resultado: para 54 equipos de mantenimiento (generalmente 2 electricistas), que era adoptado por la compañía hasta entonces, el Tiempo Promedio en Cola (en realidad era el tiempo promedio que el equipo salía para reparaciones) calculado en ese número de equipos fue de 1.23h, es decir, alrededor de 1: 14h, siendo el valor calculado por el modelo adoptado muy cercano a la realidad que miden en el día a día. En otras palabras, el modelo estaba muy cerca de la realidad.
Pero lo sorprendente es que fue suficiente aumentar el número de equipos de 54 a 55, o menos del 2% para que el tiempo de cola promedio se redujera a 0.397h, o 24 minutos. La razón de esta sorprendente disminución está en la columna del Factor de Utilización, que disminuyó de 0,988% a 0,97%. En términos generales, los equipos de mantenimiento estaban tan ocupados que la curva del Factor de Utilización que ya presentamos se encuentra en un rango de pendiente prácticamente vertical.
No es común encontrar este tipo de Factor de Utilización en el mantenimiento común, al menos en lo que se llama Prioridad 1. Pero es muy común que, como los equipos de Mantenimiento están tan ocupados, pequeñas adiciones de personal provoquen una enorme disminución de la cola. También debo señalar que, debido al espacio limitado del artículo, evité mostrar los cálculos de cuál es realmente el tiempo útil utilizado (la gente también se va de vacaciones, hay tiempo en desplazamientos, tiempo de configuración para iniciar actividades, etc.). El tiempo utilizado aquí ya ha descontado todos estos tiempos «perdidos».
Finalmente, en este caso, debo enfatizar que la solución adoptada en la práctica no fue pasar de 54 a 55 equipos, sino de 54 a 56. Esto se debe a que, cuando se calculó que el Tiempo Medio para salir a reparar sería de 24 minutos, es naturalmente un promedio. Hay días en los que estos tiempos serían más cortos y otros en que serían superiores a los 24 minutos. A seguir se realizó un modelo complementario de Simulación Matemática utilizando el Método de Monte Claro. Con la adición de 2 equipos, se puede ver en la tabla que el Tiempo Promedio en Cola (tiempo desde la salida hasta la salida para reparaciones) disminuye a 0.20h, o 12 minutos. Luego se descubrió que eran casos muy raros de esperar 30 minutos o más con un aumento en los costos actuales de menos del 4%. Se realizaron cálculos idénticos para todas las regiones estatales y todos los turnos, aunque la región de la capital durante la semana fue, con mucho, la más crítica.
Las matemáticas y estadísticas para realizar todos estos cálculos se conocían desde al menos la década de 1950, pero no era factible buscar manualmente más de 10,000 órdenes de servicio para calcular el número promedio de llegadas, tarifas de servicio, distribuciones de probabilidad de búsqueda de tarifas de llegada y asistencia, etc. Y esto solo para una región con servicios y para un turno. Todo esto solo es posible hoy a través de la adopción de ERP y CMM y la evolución de las TI y las telecomunicaciones.
3.2 Inteligencia artificial y mantenimiento
En los últimos 5 o 6 años, la llamada Inteligencia Artificial ha sido, junto con IoT (Internet of Things), los 2 ramos de la Transformación Digital más utilizados en Mantenimiento. En el Congreso de ABRAMAN 2020, hubo una Mesa Redonda donde 4 empresas presentaron sus experiencias. Entre ellos, destacaría TRANSPETRO, empresa del Grupo PETROBRAS, dedicada a la operación de petroleros, oleoductos, gasoductos y terminales petroleros.
Se aplicó Inteligencia Artificial en el área de Mantenimiento por primera vez en la compañía para analizar las fallas de los motogeneradores. En el historial de operación de estos equipos, ya existían controles basados en herramientas FRACAS (Sistema de Reportes y Análisis de Fallas y Acciones), RCM, RAM (Estudio y Análisis de Confiabilidad, Disponibilidad y Mantenibilidad). A pesar de toda la automatización y de ser un equipo fuertemente monitoreado, todavía había fallas. Necesitaban una herramienta que analizara las distintas variables monitoreadas (había 33 variables), correlacionándolas estadísticamente y mejorando la predicción de fallas en tiempo real.
En los análisis realizados empezaron a ver Patrones. Crearon un pequeño grupo formado por un especialista en motogeneradores y un especialista en confiabilidad. A partir de ahí, desarrollaron algoritmos para realizar el monitoreo, incluyendo a veces correlacionar 3 o más variables como síntomas predictivos. El desarrollo de todo este proceso tomó alrededor de 5 meses, con 2 meses para seleccionar los datos a controlar, estructurarlos y crear los estándares de control. Y los 3 meses restantes para la identificación y mejora de algoritmos y metodologías.
De estos algoritmos, entre los resultados logrados, se pueden destacar los siguientes:
- Defectos menores;
- Las diversas variables comenzaron a operar con mayor en los rangos esperados;
- Mayor eficiencia en el mantenimiento;
- Nivel de impacto de anomalías y previsibilidad superior al 80%;
- Equipos más motivados por dedicarse a métodos más modernos y eficientes.
Cabe señalar que antes de este desarrollo, el equipo de TRANSPETRO podría desarrollar 3 estudios por año. Tras esta sustitución de la lógica humana por la Inteligencia Artificial y con esta lógica automatizada, desarrollan 21 estudios en 5 días.
Actualmente, los estudios se están ampliando a otros equipos como bombas y motores eléctricos. Estos últimos, por ejemplo, son más fáciles, ya que solo hay 5 variables a monitorear y correlacionar estadísticamente, el nivel de aciertos ya supera el 85%.
Por todo ello, la Inteligencia Artificial, esta automatización de la lógica humana para procesadores, añadiendo estudios de correlación entre hechos y entre variables, ya ha sido denominada por algunos, de forma simplificada, como:
«Inteligencia Artificial = Estadísticas + Programación»
Autor: Manoel Segadas
Ingeniero Eléctrico, Universidad Federal de Río de Janeiro.
M.Sc. Investigación Operativa, Universidad de Stanford.