Confiabilidad

La ingeniería de confiabilidad

La ingeniería de confiabilidad no se desarrolló como una disciplina unificada, sino que surgió de la integración de una serie de actividades. Estas eran competencia de varias ramas de la ingeniería. Entonces, dado que ninguna actividad humana puede disfrutar de un riesgo cero, y ningún equipo tiene una tasa de fallos cero, ha surgido una tecnología de seguridad para optimizar el riesgo. Ésta intenta equilibrar el riesgo de una actividad determinada con sus beneficios y trata de evaluar la necesidad de reducir más el riesgo en función del coste.

Asimismo, la ingeniería de la fiabilidad intenta seleccionar el compromiso de diseño que equilibra el coste de la reducción de las tasas de fallo con el valor del rendimiento mejorado. Esta ingeniería comienza en la fase de diseño,

Dentro del área de ingeniería de confiabilidad coexisten dos escuelas con enfoques muy específicos; estas son:

  • Confiabilidad basada en el análisis probabilístico del tiempo para la falla o historial de fallas (Statistical Based Reliability Analysis).
  • Confiabilidad basada en el análisis probabilístico del deterioro o física de la falla (Physics Based Reliability Analysis).

Ambas escuelas tienen un objetivo común: Caracterizar probabilísticamente la falla para hacer pronósticos y establecer acciones proactivas dirigidas a evitarla o a mitigar su efecto. Adicionalmente, ambas escuelas proponen el término probabilístico confiabilidad como indicador básico para lograr esta caracterización. Asimismo, otro punto coincidente es el reconocimiento de la aleatoriedad e incertidumbre de las variables analizadas y su consecuente tratamiento probabilístico.

Las diferencias entre ambas escuelas es el punto de vista sobre cómo se analiza la falla; la primera propone predecirla estudiando la frecuencia histórica de ocurrencia o tasa de fallas. Por otro lado, la segunda considera que una falla es la última fase de un proceso de deterioro y se concentra en predecirla estudiando la física del proceso de deterioro.

Relación entre análisis de riesgo

La confiabilidad es la probabilidad de que un activo cumpla su función en un tiempo determinado y bajo un ambiente operacional especifico. Entonces, en jerga probabilística tenemos que:

  • Confiabilidad C(t) es complemento de la probabilidad de fallas F(t); es decir, C(t) es la probabilidad de éxito. Donde t es el tiempo.

Esto es: F(t) + C(t) = 1.

Entonces, de aquí decimos que existe un vínculo estrecho entre el análisis de confiabilidad y el análisis probabilístico de riesgo. Así, definimos el riesgo como las pérdidas probables en consecuencia de la probable ocurrencia de un evento no deseado o falla.

El riesgo, se comporta como una balanza, que permite pesar la influencia de ambas magnitudes, probabilidad de falla y consecuencia de la falla, en una decisión particular.

Confiabilidad y análisis de riesgo.
Figura 1. Relación entre análisis de confiabilidad y análisis de riesgo.


Análisis de confiabilidad basada en estadística

Es la rama de la confiabilidad que estudia el variable aleatorio tiempo para la falla. Entonces, el insumo básico para este tipo de análisis son bases de datos donde se almacenan las historias de fallas tiempos de fallas y tiempos de reparación de equipos. Asimismo, la confiabilidad basada en la estadística de fallas tiene dos grandes áreas de estudio; una que se enfoca en equipos no reparables y otra para equipos reparables.

Los equipos no reparables tienen las siguientes características fundamentales:

  • Después de una falla, no se puede restaurar su condición operativa.
  • Su vida termina con una “única” falla y debe ser reemplazado.
  • La variable aleatoria de interés es el tiempo para la falla.
  • Para caracterizarlo probabilísticamente se requiere estimar la tasa de fallas h(t).

Por otro lado, un equipo cuya condición operativa puede ser restaurada después de una falla se le conoce como reparable. Esto, por una acción de reparación diferente al reemplazo total del mismo. Un equipo reparable tiene las siguientes características fundamentales:

  • Su condición operativa puede restaurarse después de fallar, con una reparación.
  • En su vida puede ocurrir más de una falla.
  • La variable aleatoria de interés es el Número de Fallas en un período específico de tiempo.
  • Para caracterizarlo probabilísticamente se requiere estimar la tasa de ocurrencia de fallas λ(t) y la tasa de reparación μ(t).

Análisis de confiabilidad basado en la física del deterioro

El análisis tradicional de confiabilidad basado en el estudio estadístico del tiempo para la falla ha sido ampliamente utilizado en la industria en general. Esto con el fin de mejorar y traer los equipos y sistemas hasta los actuales niveles de desempeño. No obstante, algunas industrias han hecho grandes esfuerzos en la recolección de una información diferente a la información histórica de fallas en las tres últimas décadas. Esto, a través de programas de monitoreo de la condiciones o parámetros que reflejan el deterioro. Entonces, el continuo monitoreo del deterioro permite planificar y ejecutar acciones proactivas para evitar la ocurrencia de la falla. Este enfoque se sustenta en el convencimiento de que una falla es la última fase de un proceso de deterioro.

Necesitamos conocer los efectos físicos que producen los fallos en un activo para transformar la información recolectada sobre deterioro del mismo. Esto, con el fin de detener las acciones que causan las averías o incluso eliminarlas. En otras palabras, este enfoque se concentra en predecir la ocurrencia de una falla a través del entendimiento de cómo ocurre la falla: es decir, estudiando la física de la mal función.

Adicionalmente debemos mencionar que en la mayoría de los casos, la información recolectada sobre deterioro ha sido usada en forma determinística. Para aclarar, el determinismo científico es un paradigma científico el cual considera que, a pesar de la complejidad del mundo y su impredictibilidad práctica, el mundo físico evoluciona en el tiempo según principios o reglas totalmente predeterminadas y el azar es solo un fenómeno aparente.

Metodología para ejecutar un análisis de fiabilidad de un sistema

Con la finalidad de facilitar la ejecución del análisis de confiabilidad a nivel de sistemas se proponen los siguientes pasos a seguir:

  1. Adquisición del conocimiento relacionado con el funcionamiento del sistema que se va a analizar: Esto implica una revisión completa del proceso de operación, diagramas funcionales, planos y cualquier otra información disponible que pudiera ayudar a identificar las entradas, entender los procesos e identificar las salidas.
  2. Definir las fronteras del sistema y los niveles hasta los que será ejecutado el análisis: La ambigüedad en las fronteras del sistema puede llevar a resultados ambiguos en el análisis.
  3. Aclarar en cada nivel de análisis los sistemas en los que el sistema principal debiera dividirse con la finalidad de facilitar el análisis.
  4. Puntualizar y caracterizar el evento tope o evento no deseado para el sistema en análisis.
  5. Desarrollar un árbol de falla para el sistema.
  6. Estimar los valores de las probabilidades de falla de los diferentes componentes del sistema de acuerdo con sus modos de falla.
  7. Ejecutar un análisis de muestreo con la finalidad de identificar de acuerdo con las probabilidades de falla de los componentes, cuáles deberçian tomarse en cuenta y cuáles pudieran obviarse debido a que su baja probabilidad de falla.
  8. Ejecutar un análisis detallado con la finalidad de identificar las causas comunes de falla. Este análisis puede resultar en una tarea complicada, pero la literatura muestra que casi un 90% de la contribución a la indisponibilidad total es dominada por los eventos relacionados con los sets de combinaciones mínimas proceden de las causas comunes de falla.
  9. Una vez que el árbol de falla de confiabilidad es finalizado, se obtiene la ecuación que permite estimar la probabilidad de ocurrencia del evento tope.
  10. Luego, se ejecuta el análisis de medida de importancia mediante la aplicación del índice de Valor de Riesgo Alcanzado. El resultado de este paso es una lista jerarquizada de los componentes del sistema de acuerdo con su contribución a la ocurrencia del evento tope.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Próximos cursos:

Del 13 de abril al 04 de mayo
16 horas académicas en línea en vivo
9:00 am – 1:00 pm, Hora CDMX

Del 04 de junio al 23 de julio
64 horas académicas en línea en vivo
9:00 am – 1:00 pm, Hora CDMX

Próximos eventos:

Del 25 al 27 de marzo
Evento en línea 7:00 pm, hora CDMX
¡Regístrate gratis!

Recursos:

¡Descárgala ahora!