Taller ACR-P
Aprende el Análisis Causa Raíz

Modelamiento de Confiabilidad Utilizando MINITAB Como Herramienta de Análisis

Resumen

El análisis de la confiabilidad es uno de los aspectos relevantes en la gestión de activos, al igual que la mantenibilidad y la disponibilidad. En el presente artículo simulamos un análisis en una de las tantas herramientas estadísticas con aplicativos en el área de la confiabilidad llamada MINITAB.

Palabras Clave: Confiabilidad, distribución lognormal, distribución weibull, análisis paramétrico.

I. Introducción

Inicialmente realizaremos pruebas de normalidad a los datos suministrados, realizaremos seguidamente un análisis no paramétrico donde graficaremos la función de supervivencia y la de riesgo. Posteriormente realizaremos un análisis paramétrico y así obtener la curva de probabilidad.

II. Análisis de Datos y Pruebas de Normalidad

Es fundamental organizar los valores de menor a mayor.

Nuestra primera aproximación de estos datos la logramos dibujando un histograma.

Histograma
Histograma

Podemos observar que no se ajustan a una distribución normal, en figura 1. Encontraremos el test de normalidad aplicando la prueba Anderson – Darling y en la figura 2. El resultado de aplicar la prueba Kolmogorov – Smirnov; es de anotar que estas junto con la Chi cuadrado son pruebas de bondad de ajuste (goodness of fit) y buscan probar una hipótesis según la cual los datos corresponden a una distribución seleccionada (para nuestro caso la normal), bajo los parámetros estimados.

Figura 1. Prueba Anderson -  Darling
Figura 1. Prueba Anderson – Darling
Figura 2. Prueba Kolmogorov - Smirnov
Figura 2. Prueba Kolmogorov – Smirnov

El resultado de esto no debe sorprendernos, ya que son tiempos de vida de componentes electrónicos. Lo más probable es que se puedan ajustar a una distribución exponencial, lognormal, gamma o weibull.

Para esta demostración asumimos que los datos son completos (sabemos el tiempo de falla de todos los elementos) y no contamos con datos censurados a la derecha.

III. Análisis no Paramétrico

Este análisis se realiza a partir de los datos donde las funciones de confiabilidad y riesgo son empíricas, en otras palabras no se asume un modelo teórico de distribución de probabilidad.

En las figuras 3 y 4 podemos observar las funciones de riesgo y de confiabilidad calculadas por esta herramienta.

Figura 3. Función de confiabilidad empírica
Figura 3. Función de confiabilidad empírica
Figura 4. Función de riesgo empírica
Figura 4. Función de riesgo empírica

A continuación veremos la tabla con el análisis de distribución que realiza esta herramienta estadística, teniendo en cuenta que el cálculo se realiza para este caso con un intervalo de confianza del 95%.

Podemos observar que se realiza el análisis de la distribución utilizando el método Kaplan – Meier para estimación y cálculo de la no confiabilidad, este estimador tiene una desventaja y radica en que en el último valor arroja una confiabilidad o mantenibilidad de cero (encerrado en rojo).

Método Kaplan – Meier
Método Kaplan – Meier

A partir de nuestro análisis no paramétrico, ¿Cuál será la confiabilidad a las 700 horas de operación?

En la tabla anterior, si miramos en la fila correspondiente a 693,73 horas encontramos un valor de confiabilidad de 0,4285; el fallo siguiente lo encontraríamos a las 701,45 horas, por tanto a las 700 horas tendrá la misma confiabilidad que las 693,73 horas.

En resumen: la confiabilidad a las 700 horas será 0,4285 o 42,85%.

IV. Identificación del Mejor Modelo

Esta herramienta nos permite hacer los gráficos probabilísticas con todas las distribuciones disponibles o escoger las que se crea pueda ajustar mejor los datos.

Seguidamente encontraremos los estadísticos de bondad de ajuste, que nos permiten decidir cuál es el modelo que mejor ajusta los datos.

Debemos tener en cuenta que entre más pequeño sea el valor del estadístico de Anderson-Darling mejor es el ajuste, al mismo tiempo entre mayor sea el coeficiente de correlación mejor es el ajuste.

Para nuestro caso podemos observar que la distribución que se ajusta es la Lognormal.

Figura 5. Plot de distribuciones
Figura 5. Plot de distribuciones

Analizando los gráficos de distribuciones probabilísticas debemos tener en cuenta el que muestre los puntos más alineados ya que este corresponde a la distribución que mejor ajustó los datos.

V. Análisis paramétrico

Para realizar un análisis paramétrico asumimos de antemano un modelo teórico (Weibull, exponencial, lognormal, etc.) Al cual suponemos se ajustan los datos dependiendo de su origen.

Igual que en el caso anterior se pueden censurar o no datos a la derecha, para este caso no censuramos datos; se escoge la distribución lognormal por haber identificado que los datos provienen de tiempo de vida de componentes electromecánicos y electrónicos.

Esta es la representación matemática de la distribución de probabilidad lognormal.

Igual que hicimos para el análisis no paramétrico tomamos un intervalo de confianza del 95%.

En la figura 6. Encontraremos el gráfico de probabilidad.

Figura 6. Gráfico de probabilidad
Figura 6. Gráfico de probabilidad

En la ventana de resultados podemos observar la probabilidad de supervivencia que la herramienta calcula para las 700 horas, siendo esta de 0,3884.

Adicionalmente esta herramienta muestra un análisis completo de los datos con una tabla de estadísticos.

De igual manera nos permite observar los gráficos de densidad de probabilidad, función de confiabilidad y función de riesgo, ver figura 7.

Figura 7. Gráficos de densidad de probabilidad, función de confiabilidad y función de riesgo
Figura 7. Gráficos de densidad de probabilidad, función de confiabilidad y función de riesgo

VI. Conclusiones

Al integrar el cálculo de la Confiabilidad, el MTBF, con el análisis de Disponibilidad Operacional, nos permite tener una visión holística de la función mantenimiento, lo que facilita y soporta las decisiones de carácter técnico y financiero sobre los activos.

Desde la perspectiva Gestión del Activo Productivo, la confiabilidad nos permite realizar una gestión en la estructura de pérdidas de tiempo, permitiendo maximizar la efectividad del activo.

Referencias

  • [1]. Cramer, H., Mathematical Methods of Statistics, Princeton University Press, Princeton, NJ, 1946.
  • [2]. Davis, D.J., An Analysis of Some Failure Data, J. Am. Stat. Assoc., Vol. 47, p. 113, 1952.
  • [3]. Dietrich, D., SIE 530 Engineering Statistics Lecture Notes, The University of Arizona, Tucson, Arizona.
  • [4]. Dudewicz, E.J., An Analysis of Some Failure Data, J. Am. Stat. Assoc., Vol. 47, p. 113, 1952.
  • [5]. Dudewicz, E.J., and Mishra, Satya N., Modern Mathematical Statistics, John Wiley & Sons, Inc., New York, 1988.

Autor: Jaime Rigoberto Díaz Fernández
Ingeniero Mecánico Profesional Certificado en Confiabilidad y Mantenimiento
Colombia
Correo electrónico y Skype: jrdf74@hotmail.com

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

×

Hola

Haz clic en nuestro representante para hablar por WhatsApp o escríbenos al correo contacto@predictiva21.com

×