Confiabilidad, Mantenibilidad y Riesgo: Métodos prácticos para ingenieros

Reliability, Maintainability and Risk: Practical Methods for Engineers (English Edition) de [David J. Smith]

Sobre el Libro

Confiabilidad, Mantenibilidad y Riesgo: Métodos prácticos para ingenieros (Reliability, Maintainability and Risk, Ninth Edition: Practical Methods for Engineers) es un libro de 478 páginas escrito por el Dr. David J Smith. Fue publicado por la editorial Butterworth-Heinemann en el año 2017 en su novena edición.

Descripción del Libro

Confiabilidad, Mantenibilidad y Riesgo: Métodos Prácticos para Ingenieros, ha enseñado a los ingenieros de fiabilidad y seguridad técnicas para minimizar el diseño de procesos, los defectos de funcionamiento y los fallos durante 35 años.

Para los principiantes, el libro proporciona tácticas sobre cómo evitar las trampas en este complejo y amplio campo. Para los expertos en la materia, los ejemplos y estudios de casos bien descritos, realistas e ilustrativos añaden una nueva visión y ayuda. El autor utiliza sus 40 años de experiencia para crear una guía completa y detallada del campo, proporcionando también una excelente descripción de los conceptos de fiabilidad y cálculo de riesgos.

El libro está organizado en cinco partes. La primera parte trata de los parámetros y costes de la fiabilidad y traza la historia de la tecnología de la fiabilidad y la seguridad, presentando un enfoque rentable de la calidad, la fiabilidad y la seguridad. La segunda parte trata de la interpretación de los índices de fallo, mientras que la tercera se centra en la predicción de la fiabilidad y el riesgo.

En la cuarta parte se analizan las técnicas de diseño y aseguramiento, las técnicas de revisión y ensayo, la modelización del crecimiento de la fiabilidad, la recogida de datos sobre el terreno y la retroalimentación, la predicción y demostración de los tiempos de reparación, el mantenimiento de la fiabilidad cuantificada y los fallos sistemáticos, mientras que la quinta parte trata de cuestiones legales, de gestión y de seguridad, como la gestión de proyectos, la responsabilidad del producto y la legislación sobre seguridad.

Reseña del Libro en Amazon

Una guía práctica de las técnicas que los ingenieros deben comprender y aplicar para reducir los defectos y fallos de diseño y funcionamiento de los procesos.

Sobre el autor

El Dr. David J Smith es el propietario de Technis Consultancy. Ha escrito numerosos libros sobre fiabilidad y seguridad en los últimos 35 años. Su base de datos FARADIP ha sido ampliamente utilizada, y sus otros paquetes de software también se utilizan en toda la profesión. Su tesis doctoral versó sobre la predicción de la fiabilidad y los fallos de causa común. Contribuyó a la primera redacción de la norma IEC 61508 y preside el panel del IGEM que elabora la norma SR/15 (la guía relacionada con la seguridad de la industria del gas). David fue presidente de la Sociedad de Seguridad y Confiabilidad.

Tabla de Contenido

  • Parte 1: Entender los parámetros y los costes de la fiabilidad.
  • Parte 2: Interpretación de las tasas de fallo.
  • Parte 3: Predicción de la fiabilidad y el riesgo.
  • Parte 4: Lograr la fiabilidad y la mantenibilidad.
  • Parte 5: Consideraciones legales, de gestión y de seguridad.

A continuación se muestra un extracto del libro:

La historia de la tecnología de la fiabilidad y la seguridad

La ingeniería de la seguridad y la fiabilidad no se desarrolló como una disciplina unificada, sino que creció como resultado de la integración de una serie de actividades como la identificación de peligros, la recopilación de datos sobre la tasa de fallos y la modelización de la fiabilidad (es decir, la predicción), que anteriormente eran competencia de diversas ramas de la ingeniería.

Dado que ninguna actividad humana puede tener un riesgo cero, y ningún equipo puede tener una tasa de fallos cero, ha surgido una tecnología de seguridad para optimizar el riesgo. Se intenta equilibrar el riesgo de una actividad determinada con sus beneficios y se trata de evaluar la necesidad de reducir más el riesgo en función del coste.

Del mismo modo, la ingeniería de la fiabilidad, que comienza en la fase de diseño, intenta seleccionar el compromiso de diseño que equilibra el coste de la reducción de las tasas de fallo con el valor del rendimiento mejorado.

El término fiabilidad suele aplicarse a los fallos que tienen una penalización económica y el de seguridad a aquellos en los que el fallo es peligroso. El término Tecnología de la Fiabilidad (en opinión del autor) abarca ambos escenarios. La abreviatura RAMS se utiliza con frecuencia para facilitar la referencia a la fiabilidad, la disponibilidad, la mantenibilidad y la seguridad-integridad.

1.1 Datos sobre fallos

A lo largo de la historia de la ingeniería, la mejora de la fiabilidad (también llamada aumento de la fiabilidad) ha surgido como consecuencia natural del análisis de los fallos. Esto ha sido durante mucho tiempo una característica central del desarrollo. El principio de “probar y corregir” se practicó mucho antes de que se desarrollaran procedimientos formales para la recogida y el análisis de datos por la razón de que los fallos suelen ser evidentes por sí mismos y, por tanto, conducen, inevitablemente, a modificaciones del diseño.

El diseño de los sistemas relacionados con la seguridad (por ejemplo, la señalización ferroviaria, los sistemas de cierre de plantas, etc.) ha evolucionado en parte como respuesta a la aparición de nuevas tecnologías, pero en gran medida como resultado de las lecciones aprendidas de los fallos del pasado. La aplicación de la tecnología a las arcas peligrosas requiere la aplicación formal de este principio de retroalimentación para maximizar el índice de mejora de la fiabilidad. No obstante, como ya se ha mencionado, todos los productos de ingeniería mostrarán cierto grado de crecimiento de la fiabilidad incluso sin programas formales de mejora.

Los diseños del siglo XIX y principios del XX estaban menos limitados por las presiones de costes y plazos de hoy en día. Por ello, en muchos casos, los altos niveles de fiabilidad se conseguían mediante un diseño excesivo. Por lo tanto, no se detectó la necesidad de evaluar la fiabilidad de forma cuantificada durante la fase de diseño y desarrollo. Por lo tanto, no se necesitaban tasas de fallo empíricas de los componentes de ingeniería, como ocurre ahora, para apoyar las técnicas de predicción y, en consecuencia, no había ningún incentivo para la recopilación formal de datos sobre fallos.

Otro factor es que, hasta bien entrado el siglo XX, los componentes se fabricaban individualmente en un entorno “artesanal”. La producción en masa, y la consiguiente necesidad de estandarización de los componentes, no se aplicaba y no podía existir el concepto de una tasa de fallos de componentes válida y repetible. La fiabilidad de cada producto dependía en gran medida del artesano/fabricante y estaba menos determinada por la “combinación” de la fiabilidad de los componentes.

Sin embargo, la producción en masa de piezas mecánicas estándar ha sido el caso durante más de cien años. En estas circunstancias, los elementos defectuosos pueden identificarse fácilmente, mediante inspecciones y pruebas, durante el proceso de fabricación, y es posible controlar la fiabilidad mediante procedimientos de control de calidad.

El advenimiento de la era electrónica, acelerado por la Segunda Guerra Mundial, hizo necesaria la producción en serie de componentes más complejos con un mayor grado de variabilidad en los parámetros y dimensiones. La experiencia de la escasa fiabilidad de los equipos militares sobre el terreno durante las décadas de 1940 y 1950 centró la atención en la necesidad de métodos más formales de ingeniería de la fiabilidad. Esto dio lugar a la recopilación de información sobre fallos tanto en el campo como en la interpretación de los datos de las pruebas. A mediados de la década de 1960 se crearon bancos de datos de tasas de fallo como resultado del trabajo de organizaciones como la UKAEA (Autoridad de Energía Atómica del Reino Unido) y el RRE (Real Establecimiento de Radares, Reino Unido) y la RADC (Corporación de Desarrollo Aéreo de Roma, Estados Unidos). La manipulación de los datos era manual e implicaba el cálculo de las tasas de fallo a partir de los datos de los incidentes, los inventarios de los tipos de componentes y los registros de las horas transcurridas. Esto se vio estimulado por la llegada de las técnicas de modelización de la predicción de la fiabilidad, que requieren las tasas de fallo de los componentes como entradas para cuantificar las ecuaciones de predicción.

La disponibilidad y el bajo coste de los ordenadores personales de sobremesa (PC), junto con paquetes de software versátiles y potentes, han permitido enumerar y manipular los datos de los incidentes con un orden de magnitud menor. La rápida clasificación automática de los datos favorece el análisis de los fallos en modos de fallo. Esto no es un factor menor para contribuir a una evaluación más eficaz de la fiabilidad, ya que los índices de fallos brutos sólo permiten predecir la fiabilidad del recuento de piezas. Para abordar fallos específicos del sistema es necesario introducir los índices de modos de fallo de componentes específicos en un árbol de fallos o en un análisis de modos de fallo.

La necesidad de realizar registros sobre el terreno hace que la recogida de datos requiera mucho trabajo, lo que sigue siendo un obstáculo importante para obtener información completa y precisa. Motivar al personal para que proporcione informes de campo con suficientes detalles relevantes es un reto constante para la dirección. La difusión de las instalaciones de PC en este ámbito ayuda a que se pueda utilizar un software interactivo para estimular la entrada de información necesaria al mismo tiempo que se realizan otras actividades de registro de mantenimiento.

Con el rápido crecimiento de las funciones de prueba y diagnóstico integradas en los equipos, una tendencia futura debería ser la aparición de la notificación automática de fallos.

Los datos sobre fallos se publican desde los años 60 y cada documento importante se describe en el capítulo 4.

Fin del extracto.

Referencias

Comprar en Amazon

Más Libros en Predictiva21

2 Comentarios

  1. Luis Espejo Ortega

    Este libro se hace de lectura obligada debido a que aborda las técnicas de confiabilidad, mantenibilidad y análisis de riesgos, estos tres temas son esenciales ´para la operación y desarrollo de cualquier empresa en la actualidad, los riesgos no se han tomado con mucha seriedad, pero estos libros nos están obligando a convertirlo en un tema imprescindible.

    Responder
  2. milton melgarejo

    Un muy buen libro, me gustaría adquirirlo.

    Responder

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Próximos cursos:

Del 13 de abril al 04 de mayo
16 horas académicas en línea en vivo
9:00 am – 1:00 pm, Hora CDMX

Del 04 de junio al 23 de julio
64 horas académicas en línea en vivo
9:00 am – 1:00 pm, Hora CDMX

Próximos eventos:

Del 25 al 27 de marzo
Evento en línea 7:00 pm, hora CDMX
¡Regístrate gratis!

Recursos:

¡Descárgala ahora!