Experiencias en el desarrollo de Análisis de Confiabilidad, Disponibilidad y Mantenibilidad (Análisis RAM).

Introducción

La competitividad y rentabilidad de la obtención de cualquier bien, depende en gran medida de la continuidad de su proceso productivo, en las condiciones bajo las cuales se espera que opere, con la finalidad de obtener un producto de calidad y que sea económicamente rentable. Para ello las empresas de producción, buscando la excelencia en sus procesos, utilizan ideas innovadoras que conlleven a la mejora de la disponibilidad de su sistema productivo, aplicando el nivel de mantenibilidad adecuado, basado en la confiabilidad de sus componentes, equipos y personal.

El Análisis de Confiabilidad, Disponibilidad y Mantenibilidad, conocido como Análisis RAM (Reliability, Availability and Maintainability, por sus siglas en inglés), es una de las metodologías de confiabilidad utilizadas desde hace varios años, que permite predecir el comportamiento del factor de servicio de un sistema productivo, con base al comportamiento de fallas y reparaciones de sus equipos y componentes, mantenimientos planificados, configuración de sus componentes, filosofía operacional, exibilidades y/o eventos externos que puedan afectar la disponibilidad del mismo.

Adicionalmente los resultados de un Análisis RAM contribuyen en el diagnóstico de posibles problemas en las estrategias de mantenimiento de los equipos, las políticas de inventario de repuestos y las condiciones de los equipos en relación a su comportamiento de fallas y reparaciones.

A continuación se presentan los beneficios obtenidos, las limitaciones observadas y las mejores prácticas a tomar en cuenta al momento de realizar un Análisis RAM, basado en la experiencia de más quince (15) proyectos de este tipo, en diversas empresas de producción a nivel nacional e internacional.

Análisis de Confiabilidad, Disponibilidad y Mantenibilidad (RAM).

El Análisis de Confiabilidad, Disponibilidad y Mantenibilidad conocido también como Análisis RAM por sus siglas en inglés, es un estudio proactivo de diagnóstico de la disponibilidad y el factor de servicio de un proceso de producción para un período determinado de tiempo, que busca caracterizar el estado actual de un proceso, sistema o equipos y predecir su comportamiento futuro basado en la configuración y confiabilidad de sus componentes y en la filosofía de mantenimiento, mediante el análisis del historial de fallas y reparaciones, los datos de las condiciones operacionales y datos técnicos.

El análisis se sustenta en un modelo de simulación que toma en cuenta la confijguración de los equipos, las fallas aleatorias, las reparaciones, las paradas parciales y totales y el mantenimiento planificado.

Además de obtener el factor de servicio de un sistema en un período determinado, el Análisis RAM revela los “malos actores” mediante una lista de criticidad de elementos o componentes con mayor aportación a la indisponibilidad del sistema, también devela debilidades en las áreas de mantenimiento, fallas recurrentes de equipos, inventarios de partes y repuestos, logísticas de operación y mantenimiento, etc. lo que trae como consecuencia el planteamiento y evaluación de soluciones costo-efectivas que permitan mejorar la rentabilidad de la producción del sistema bajo estudio a través de acciones para disminuir los eventos no deseados o fallas. Adicionalmente permite identificar los volúmenes de producción que serán afectados por la indisponibilidad y de este modo afectar los compromisos con este concepto que en muchas oportunidades no es tomado en cuenta.

Este análisis tiene como fuente primordial de información los Tiempos Promedios Para la Falla (TPPF) y Tiempos Promedios Para Reparar (TPPR) de los diversos componentes que afectan la disponibilidad de producción del sistema, los cuales deben ser adecuadamente “construidos” de acuerdo a las fuentes de información disponibles: evidencia o datos propios, datos de bancos genéricos de la industria u opinión de expertos. Así mismo, el modelo toma en cuenta el deterioro por los procesos de desgaste de los componentes.

Una vez construido el modelo que represente el comportamiento del sistema de producción, este trabaja como un simulador “what if…” (que pasa si…), lo que permite evaluar cambios de tecnologías, modificaciones de equipos o componentes, adición de redundancia de equipos y/o cualquier mejora técnicamente factible propuesta, con la finalidad de analizar las implicaciones de dichos cambios en el impacto a la disponibilidad del sistema, lo que se conoce como “escenarios”.

Modelo General de un Análisis RAM

Como se indica en la Figura 1, el análisis RAM se inicia con la estimación de las tasas de falla y reparación de cada uno de los componentes o equipos que conforman los sistemas o procesos. Las fuentes fundamentales de información para esta estimación pueden ser de variada naturaleza, específicas o genéricas.

Las tasas de fallas y reparaciones para cada equipo o componente del sistema son almacenadas de manera organizada en una base de datos, que además contiene la información técnica de los equipos, y se utiliza como fuente de información para el Análisis RAM.

Figura 1. Modelo General del Análisis RAM.
Figura 1. Modelo General del Análisis RAM.

Una vez definidas las tasas de fallas y reparaciones de cada equipo del sistema y los perfiles de producción del sistema, éstos son incluidos en un modelo de Diagramas de Bloque de Disponibilidad (DBD) que se desarrolla para representar la arquitectura y la filosofía de operación del sistema, partiendo de los diagramas de flujo de procesos, diagramas de tuberías e instrumentos, las descriptivas de procesos y cualquier otra plataforma que fuente que aclare el funcionamiento y filosofía de los procesos y sistemas. Este diagrama puede construirse con herramientas computacionales de simulación disponibles tales como Raptor de Arinc, RAMP de Atkins, Maros de Det Norske Veritas, entre otros.

Para verificar la representatividad del modelo, se requiere de una serie de entrevistas con el personal de procesos, operaciones y mantenimiento asociado al proceso productivo que se está analizando.

Por otro lado, una vez desarrollada y validada la base de datos y la arquitectura del modelo, se simulan los escenarios de interés. Como resultado se obtiene, para cada escenario, el factor de servicio esperado según el horizonte de tiempo establecido para el análisis, así como la lista de los equipos críticos o “malos actores” que representan los equipos o sistemas con mayor aporte a la indisponibilidad del proceso analizado.

Etapas de un Análisis RAM – Mejores Prácticas

El plan de trabajo para un análisis RAM, se desarrolla en tres etapas fundamentales, tal como se muestra en la Figura 2.

Figura 2. Plan de Trabajo del Análisis RAM.
Figura 2. Plan de Trabajo del Análisis RAM.

Etapa I

Consiste en la asignación de las tasas de falla y reparación de los componentes o equipos que conforman el sistema, así como la revisión de los planes de mantenimiento planificados. Es importante destacar que los Tiempos para Reparar de los equipos a considerar en un Análisis RAM, deben incluir los tiempos fuera de servicio por logística de la reparación o reemplazo de los equipos (emisión de órdenes de trabajo, preparación de equipos requeridos para la reparación, búsqueda de repuestos, tiempo de arranque del equipo, etc.) que impliquen la indisponibilidad del sistema a analizar. Para esta etapa se realizan los siguientes pasos:

• Recopilación de Datos Históricos Propios: muchas empresas buscando la mejora continua de sus procesos han hecho grandes esfuerzos en la recolección de información de campo sobre datos de falla (tipo y frecuencia) y datos de reparación de sus equipos. La cantidad y calidad de este tipo de información son de gran importancia para este estudio pues reducen los valores de incertidumbre epistémica en el análisis y son representativos de la naturaleza de la variable.

Como consecuencia, esta fuente de información es la más representativa del comportamiento de fallas y reparaciones de los equipos a considerar en el análisis, el gran problema con que generalmente nos enfrentamos es que es muy escasa.

Para hallar la mayor cantidad de información propia o evidencia de fallas y reparaciones de los equipos, se deben realizar revisiones exhaustivas del Sistema de Gestión de Mantenimiento (SAP, Meridium, etc.); así como entrevistas con el personal de mantenimiento, quienes muchas veces llevan sus indicadores de gestión en archivos personales, los cuales también son una fuente valiosa de información. Comúnmente encontramos datos de evidencia que se encuentran fuera de lo que consideramos “normal” en el comportamiento de fallas y reparaciones de los equipos, por lo que se debe validar su veracidad con el personal de mantenimiento y operaciones. Esta etapa se conoce como depuración de la data de fallas y reparaciones, y debe ser llevada a cabo en apoyo con los expertos en mantenimiento quienes conocen el comportamiento de fallas y reparaciones de los equipos.

• Recopilación de Opinión de Expertos: existen casos donde no se cuenta con su ciente información de campo, y en ausencia de ella existen metodologías que permiten la recolección de información a partir de la opinión de los expertos.

Para ello existen diversas técnicas de entrevistas del experto o grupo de expertos, tales como el “Método de Delphi”, que permite obtener la opinión de expertos, documentarla y reducir su subjetividad.

Un punto a resaltar en cuanto a la recolección de opinión de expertos, es la importancia de comunicar el motivo de la recolección de información, ya que los expertos tienden a proporcionar valores “conservadores” y muchas veces no reflejan la realidad de los sistemas que se están analizando. Adicionalmente, debe recolectarse el Tiempo para Reparar separadamente: Tiempo para Reparar Efectivo, el tiempo que demora realizar la actividad de reparación o reemplazo, asumiendo que se tienen todos los recursos materiales y humanos requeridos. Tiempo para Reparar de Logística: tiempos fuera de servicio por logística de la reparación o reemplazo de los equipos (emisión de órdenes de trabajo, preparación de equipos requeridos para la reparación, búsqueda de repuestos, tiempo de arranque del equipo, etc.) que impliquen la indisponibilidad del sistema a analizar.

• Búsqueda y adecuación de Información Genérica: Cuando la información propia no es suficiente para garantizar un análisis estadístico confiable y robusto es extremadamente importante complementar dicha información con datos de confiabilidad genéricos provenientes de reconocidas bases de datos internacionales como OREDA, PARLOC, WELL MASTER, IEEE.

Sin embargo, se debe tomar en cuenta que al utilizar Datos Genéricos se está trabajando con tasas de falla y reparación de equipos en contextos operacionales que pueden ser muy diferentes al que estamos tomando en cuenta en los sistemas bajo análisis. De este modo, es importante adecuar esta información al entorno operacional bajo análisis, mediante la validación de los modos de falla que puedan ocurrir o que se hayan presentado, apoyados en el personal con alta experiencia o conocimiento de los equipos que impactan la disponibilidad del sistema. Ver Figura 3.

Las razones para no considerar algunos de los modos de falla que están en las bases de datos genéricas son múltiples, pero pueden resumirse en dos; estas son:

• Un análisis de los mecanismos de deterioro posibles de ocurrencia en el entorno operacional bajo análisis descartan la posibilidad de ocurrencia de alguno de estos modos de falla.

• Se han implantado acciones de mantenimiento, inspección o rediseño del proceso, que apuntan a “erradicar” la ocurrencia de determinados modos de falla. Esto último es muy importante cuando se estiman tasas de fallas a equipos a los que se les han hecho estudios de Mantenimiento Centrado en Confiabilidad (MCC) o Inspección Basada en Riesgos (IBR), de los cuales resultan planes de inspección y mantenimiento rediseñados, que atacan los modos de falla que realmente ocurren en un entorno operacional.

En este punto es relevante tomar en cuenta que el personal encargado de la búsqueda de la información genérica debe tener conocimiento sobre la manera en que se encuentran representadas las tasas de fallas y reparaciones; además del análisis estadístico realizado para su cálculo, ya que estas suelen ser diferentes en los bancos de datos genéricos más utilizados. Esto con la finalidad de representarlas adecuadamente para cada familia de equipos.

Figura 3. Adecuación de la Tasa de Fallas Genérica al contexto operacional.
Figura 3. Adecuación de la Tasa de Fallas Genérica al contexto operacional.

• Adecuación de la información por el Teorema de Bayes: En algunos casos la evidencia o datos propios de fallas encontrados para algunos equipos incluidos en el análisis, puede ser considerada una muestra poco robusta para su representación mediante distribuciones de probabilidad, por contener muy pocos datos. También puede ocurrir que se desee combinar la experiencia de los expertos que han dado su opinión de las tasas de falla y reparaciones de equipos, con bancos de datos genéricos.

En tales casos, se recurre al Teorema de Bayes como vehículo matemático para combinar el conocimiento previo de bancos de datos genéricos u opinión de expertos con la evidencia propia.

El teorema permite hallar la distribución posterior o actualizada de la tasa de fallas “f(λ/X)”. Para ello es necesario por una parte definir una distribución “previa” de la tasa de fallas g(λ) (Conocimiento Previo) y por la otra, construir la función de verosimilitud o probabilidad de la evidencia L(X/λ) a partir de la evidencia muestral. Este procedimiento de cálculo es generalmente conocido como “actualización de la tasa de fallas”.

Ecuación
Ecuación
Figura 4. Aplicación del Teorema de Bayes para OREDA y evidencia.
Figura 4. Aplicación del Teorema de Bayes para OREDA y evidencia.

En la figura 4 se muestra la ecuación a utilizar para el caso específico de la combinación de data genérica proveniente del banco de datos conocido como OREDA, cuyas tasas de fallas están representadas por una distribución de probabilidad Gamma, con datos propios (evidencia) de fallas de los equipos bajo análisis.

• Revisión y Validación de las Bases de Datos: Este representa el último paso de la I Etapa para un análisis RAM, por lo que es importante escoger un equipo de trabajo con alta experiencia en el conocimiento del comportamiento de fallas y reparaciones de los equipos incluidos en el análisis.

Dichos expertos deberán validar las distribuciones de probabilidad que reflejan la información de confiabilidad (Tiempos Para la Falla) y mantenibilidad (Tiempos Para Reparar) de los equipos incluidos en el Análisis RAM. Adicionalmente, deben validar la estructura e información técnica contenida en la base de datos, ya que esta será un insumo de gran importancia para estudios de confiabilidad posteriores, o inclusive, para poder llevar los indicadores de la gestión de mantenimiento y confiabilidad de manera más ordenada y rápida. Es importante destacar, que los analistas de confiabilidad deben dar prioridad a los datos de fallas y reparaciones a utilizar para cada equipo incluido en el análisis con base a la disponibilidad de la información validada como sigue: 1. Evidencia, como más representativa de la realidad; 2. Teorema de Bayes, combinación de evidencia con datos genéricos, la cual favorece la evidencia; 3. Opinión de Expertos y Datos Genéricos.

Etapa II

Está relacionada con la revisión y verificación de la arquitectura del modelo; y la misma se realiza de acuerdo a los pasos que se describen a continuación:

• Construcción del Diagrama de Bloques de Disponibilidad: En esta etapa, en primer lugar, se debe tener clara la diferencia entre la lógica de un modelo de diagrama de bloques de disponibilidad y un diagrama de procesos; es decir, se debe construir el diagrama de bloques desde el punto de vista de confiabilidad, y no de procesos. Muchas veces se comete el error de construir el diagrama desde el punto de vista de procesos, por lo que el responsable de esta etapa debe tener conocimientos sobre confiabilidad y el desarrollo de dichos modelos. Para ello se parte de las narrativas de procesos, diagramas funcionales, diagramas de flujo de procesos (DFP o PFD), diagramas de tubería e instrumentación (DTI o PI&D), diagramas unifilares, etc. Aunado a este proceso se elaboran cuestionarios con las dudas planteadas sobre la funcionabilidad o interacción de los equipos y/o sistemas; además de las facilidades operacionales que podrían existir.

En esta etapa también se deben analizar si existe algún tipo de eventos externos que afecten la disponibilidad de las instalaciones y se considere relevante para representarlo en el diagrama de bloques de disponibilidad, con la finalidad de obtener la disponibilidad operacional del sistema. Por ejemplo, se deben considerar eventos como condiciones climáticas, suministro de energía eléctrica, gas combustible, vapor, etc. que provenga de un agente externo; es decir, fallas en los sistemas de recepción o entrega de producto que ocasionen indisponibilidad de los sistemas que se están analizando.

En algunas ocasiones se han analizado casos donde la mayor causa de indisponibilidad en un sistema o planta es ocasionada por algún evento externo, lo que permitirá idear y justificar acciones que mitiguen, si es posible técnicamente, dichos eventos. Estos eventos generalmente se representan estadísticamente por historial de fallas (si existe) u opinión de expertos.

De esta manera se construyen diagramas de bloques de disponibilidad iniciales, los cuales una vez culminados deben ser validados.

• Revisión de la representatividad del modelo: Esta etapa consiste en verificar la representatividad que el modelo diagramado tiene del sistema de producción bajo estudio sometiendo el mismo a pruebas de verificación de la lógica de confiabilidad en reuniones con expertos en dicho proceso productivo.

Así, los Diagramas de Bloques de Disponibilidad deben ser validados mediante entrevistas formales con el equipo de trabajo (personal de operaciones, mantenedores, ingenieros de procesos, etc.) relacionado con el proceso a modelar, con la finalidad de definir claramente la filosofía operacional de los equipos, redundancias y facilidades operacionales; así como la interrelación entre los sistemas que conforman el proceso. Es importante comunicar al equipo de trabajo involucrado antes de dichas entrevistas, la filosofía para la construcción de un diagrama de bloques de disponibilidad.

Adicionalmente, en el modelo se deben tomar en cuenta los perfiles de producción que se manejarán en el tiempo; así como los impactos en pérdidas de producción por las fallas de los sistemas y equipos que conforman el proceso a analizar.

Por las experiencias obtenidas en los análisis RAM realizados, se pude concluir que en los casos de las industrias petroquímica, refinerías y empresas de producción en cadena (bebidas, automóviles, etc.), en los cuales los procesos son muy lineales y dependientes entre ellos, muy pocos requieren análisis adicionales de procesos. Esto basado en que en dichas industrias los cambios de producción en el tiempo no son tan variantes.

Fundamentado en la variación importante de producción en la industria de producción de gas y petróleo, lo cual implica procesos mas complejos, aunado a la incorporación o desincorporación de equipos y/o sistemas, se hace necesario ejecutar un análisis de proceso como complemento de un Análisis RAM, conocido entonces como Análisis RAMP, por la adición del estudio de procesos.

Este consistirá en un conjunto de actividades que consideran el análisis de la información de diferentes fuentes de datos históricos, diseño, mantenimiento, con el objeto de realizar un análisis probabilístico e integral de la instalación sistema o proceso bajo estudio, que permita verificar o adecuar el proceso a las necesidades operativas de acuerdo al contexto operacional considerando el perfil de producción, la capacidad instalada y el horizonte económico de nido en la planeación estratégica.

Los resultados del análisis de proceso permiten determinar las alternativas que presenten la configuración óptima del sistema o proceso analizado, logrando obtener la máxima utilización de los procesos productivos.

Los resultados obtenidos con el estudio RAM dependen en gran medida de la representatividad que se logre con el modelo desarrollado, el cual debe ser capaz de reproducir el comportamiento real del sistema dentro de su contexto operacional.

Como consecuencia, es sumamente relevante en esta etapa verificar se encuentren reflejadas en el modelo del Análisis RAM todas las facilidades operacionales con que se cuenta en los sistemas para evitar la indisponibilidad de los mismos, debido a que en muchas ocasiones éstas no se encuentran expresadas en los manuales operacionales, sino en la experiencia de aquellos operadores o mantenedores, quienes ante las contingencias de eventos no deseados, toman acciones para no detener el proceso productivo basados en su conocimiento del mismo.

Figura 5. Modelo del Diagrama de Bloques de Disponibilidad de un Sistema Productivo.
Figura 5. Modelo del Diagrama de Bloques de Disponibilidad de un Sistema Productivo.

Etapa III

Consiste en la combinación de los resultados obtenidos en las etapas I y II. Una vez determinadas las tasas de falla y reparación de cada uno de los bloques de disponibilidad a considerar en el modelo, y revisada la representatividad del modelo de diagramas de bloques de disponibilidad, se procede a introducir dichos datos en herramientas o softwares diseñados para tal fin.

En este punto el encargado de dicha tarea debe tener conocimiento de la herramienta a utilizar, debido a que cada software di ere en cuanto a la manera como se interpretan las interacciones entre los sistemas, equipos, facilidades operacionales, etc. También se debe definir si se analizará la disponibilidad inherente o la operacional.

A partir de allí se comienzan a realizar las diferentes simulaciones de los escenarios planteados. Generalmente en primer lugar, se representa y simula el escenario llamado “Base”, el cual representa las condiciones operacionales actuales del proceso a analizar.

Esto permite además verificar la representatividad del modelo con respecto a la realidad, a través de los resultados obtenidos en cuanto al factor de servicio y la lista de jerarquización de equipos; lo cual debe ser validado con el personal de mantenimiento, operaciones, ingenieros de procesos; entre otros.

Los escenarios adicionales generalmente representan propuestas como resultado del análisis del escenario base, contemplando cambios de arquitectura (nuevas configuraciones de los equipos, introducción de nueva tecnología, cambios en el diseño), nuevos planes de mantenimiento u optimización de los existentes, nuevas políticas de inventario, adquisición de equipos de última generación, nuevas políticas tendientes a mejorar los TPPF y TPPR de los equipos existentes, entre otras.

La simulación de escenarios adicionales permite evaluar el impacto de los cambios propuestos en los resultados de confiabilidad y disponibilidad del sistema y compararlos con los niveles actuales. Esto además ayudará a soportar el análisis financiero de la mejora/solución propuesta basado en el cambio obtenido en el factor de servicio de las instalaciones. De modo que podamos cumplir con plantear soluciones que sean técnicamente factibles, económicamente rentables y presupuestariamente viables.

En la mayoría de los casos se ha demostrado que si durante las etapas I y II del Análisis RAM, se siguen los pasos indicados y el equipo de trabajo involucrado realmente domina los conocimientos requeridos del proceso y los equipos del sistema a analizar, el modelo obtenido finalmente representa en gran medida el proceso actual.

Como resultados del análisis tendremos los reportes de perfil estocástico de producción y el factor de servicio esperado del sistema en el horizonte evaluado; así como también la lista jerarquizada de equipos según su impacto en la indisponibilidad del proceso.

Con base a estos resultados, se emitirán las recomendaciones en cuanto a planes de mantenimiento programado de los equipos, mejoras en la con fiabilidad de los equipos, realización de Análisis Causa Raíz si aplica, políticas de manejo de inventarios de repuestos y partes, etc.

Para concluir se puede mencionar que es recomendable actualizar el modelo de simulación si se implantan cambios importantes en el contexto operacional, cambios en el comportamiento de fallas y reparaciones de los equipos, o en su defecto cada dos años, de manera que se actualicen las condiciones de deterioro de los equipos en el modelo.

Autores:

Romero Barrios, Maria Teresa
Correo: maria.romero@reliarisk.com

Agüero López, Miguel Ángel
Correo: miguel.aguero@reliarisk.com

Rojas Monsalve, Elimar Anauro
Correo: elimar.rojas@reliarisk.com

Reliability and Risk Management México, S.A. de C.V. (R2M-México, S.A. de C.V.) Villahermosa, Tabasco, México.

¡Califica este artículo!
[Total: 0   Promedio: 0/5]

La importancia de los datos y como convertirlos en dinero
Javier Leonardo Salas & Alberto Salas Mejia

* indicates required
Reliabytics
Reliabytics