Métodos Estadísticos para datos confiables

Métodos Estadísticos para datos confiables

Sobre el Libro

Métodos Estadísticos para datos confiables (Statistical Methods for Reliability Data, 1st Edition) es un libro de 712 páginas escrito por William Q. Meeker y Luis A. Escobar. Fue publicado por la editorial Wiley-Interscience en el año 1998 en su primera edición.

Descripción del Libro

Adaptación de los métodos estadísticos para las pruebas de confiabilidad a la era de la informática.

Este volumen presenta métodos estadísticos informáticos de última generación para el análisis de datos de confiabilidad y la planificación de pruebas para productos industriales. Métodos Estadísticos para datos confiables actualiza y mejora las técnicas establecidas al demostrar cómo aplicar los nuevos métodos gráficos, numéricos o basados ​​en simulación a una amplia gama de modelos encontrados en el análisis de datos de confiabilidad. Incluye métodos para planificar estudios de confiabilidad y analizar datos de degradación, métodos de simulación utilizados para complementar la teoría asintótica de muestras grandes, métodos generales basados ​​en la probabilidad para manejar datos censurados arbitrariamente y datos truncados, y más. En este libro, los ingenieros y estadísticos de la industria y el mundo académico encontrarán:

  • Una gran cantidad de información y procedimientos desarrollados para dar a los productos una ventaja competitiva.
  • Ejemplos sencillos de análisis de datos calculados con el sistema S-PLUS, para los que hay disponible un conjunto de funciones y comandos en Internet.
  • Conjuntos de ejercicios de datos reales al final del capítulo
  • Cientos de gráficos por computadora que ilustran datos, resultados de análisis y conceptos técnicos
  • Un recurso esencial para los profesionales involucrados en la confiabilidad del producto y las decisiones de diseño, los métodos estadísticos para los datos de confiabilidad también es un excelente libro de texto para cursos de capacitación en el trabajo y para cursos universitarios sobre análisis de datos de confiabilidad aplicada a nivel de posgrado.

Amstat News pidió a tres editores de reseñas que calificaran sus cinco libros favoritos en la edición de septiembre de 2003. Los métodos estadísticos para la confiabilidad de los datos estuvieron entre los elegidos.

Reseñas

“…provides state-of-the-art developments in reliability theory and applications.” (Journal of Statistical Computation and Simulation, June 2005)

This title has been awarded the: Association of American Publishers Professional/Scholarly Publishing Division Award for Excellence and Innovation in Engineering

Sobre los autores

William Q. Meeker PhD, is Professor of Statistics and Distinguished Professor of Liberal Arts and Sciences at Iowa State University. He is a Fellow of the American Statistical Association and an elected member of the International Statistics Institute. Among his many awards and honors are the Youdan Prize and two Wilcoxon Prizes as well as two awards for outstanding teaching at Iowa State. He is coauthor of Statistical Intervals: A Guide for Practitioners (Wiley) and of numerous book chapters and publications in the engineering and statistical literature. A former editor of Technometrics and coeditor of Selected Tables in Mathematical Statistics, he is currently Associate Editor for International Statistical Review.

Luis A. Escobar, PhD, is a Professor in the Department of Experimental Statistics at Louisiana State University. His research and consulting interests include statistical analysis of reliability data, accelerated testing, survival analysis, and nonlinear models. An Associate Editor for Technometrics and the IIE Transactions of Quality and Reliability Engineering, Professor Escobar is a Fellow of the American Statistical Association and elected member of the International Statistics Institute. He is the author of several book chapters, and his publications have appeared in the engineering and statistical literature.

Tabla de Contenido

  1. Conceptos de confiabilidad y datos de confiabilidad.
  2. Estimación no paramétrica.
  3. Otras distribuciones paramétricas.
  4. Trazado de probabilidad.
  5. Intervalos de confianza de bootstrap.
  6. Planificación de pruebas de vida.
  7. Datos de degradación, modelos y análisis de datos.
  8. Introducción al uso de métodos bayesianos para la confiabilidad de datos.
  9. Análisis de regresión del tiempo de falla.
  10. Modelos de prueba acelerados.
  11. Pruebas de vida acelerada.
  12. Estudios de caso y aplicaciones adicionales.

1.1 Introducción

1.1.1 Calidad y confiabilidad

Rápidos avances en tecnología. el desarrollo de productos altamente sofisticados, la intensa competencia global y las crecientes expectativas de los clientes han ejercido nuevas presiones sobre los fabricantes para producir productos de alta calidad. Los clientes esperan que los productos comprados sean confiables y seguros. Los sistemas, vehículos, máquinas, dispositivos, etc. deberían, con alta probabilidad, poder realizar su función prevista en las condiciones de funcionamiento habituales, durante un período de tiempo específico.

Técnicamente, la confiabilidad se define a menudo como la probabilidad de que un sistema, vehículo, máquina, dispositivo, etc., realice su función prevista en condiciones de funcionamiento, durante un período de tiempo específico. Mejorar la confiabilidad es una parte importante del panorama general más amplio de mejorar la calidad del producto. Hay muchas definiciones de calidad, pero el acuerdo general es que un producto no confiable no es un producto de alta calidad. Condra (1993) enfatiza que “la confiabilidad es calidad en el tiempo”

Los programas modernos para mejorar la confiabilidad de los productos existentes y para asegurar una alta confiabilidad continua para la próxima generación de productos requieren métodos cuantitativos para predecir y evaluar varios aspectos de la confiabilidad del producto. En la mayoría de los casos, esto implicará la recopilación de datos de confiabilidad de estudios tales como pruebas de laboratorio (o experimentos diseñados) de materiales, dispositivos y componentes, pruebas en unidades prototipo tempranas, monitoreo cuidadoso de unidades de producción temprana en el campo, análisis de garantía. datos y seguimiento sistemático a largo plazo de los productos en el campo.

1.1.2 Razones para recopilar datos de confiabilidad

Hay muchas razones posibles para recopilar datos de confiabilidad. Los ejemplos incluyen lo siguiente:

  • Evaluación de las características de los materiales durante un período de garantía o durante la vida útil de los productos.
  • Predecir la confiabilidad del producto.
  • Predecir los costos de garantía del producto.
  • Proporcionar las entradas necesarias para la evaluación del riesgo de falla del sistema.
  • Evaluar el efecto de un cambio de diseño propuesto.
  • Evaluar si se han cumplido los requisitos del cliente y las regulaciones gubernamentales.
  • Seguimiento del producto en el campo para proporcionar información sobre las causas de falla y métodos para mejorar la confiabilidad del producto.
  • Programas de apoyo para mejorar la confiabilidad mediante el uso de experimentos de laboratorio, incluidas pruebas de vida acelerada.
  • Comparar componentes de dos o más de diferentes fabricantes, materiales, períodos de producción, entornos operativos, etc.
  • Comprobación de la veracidad de un reclamo publicitario.

1.1.3 Características distintivas de los datos de confiabilidad

Los datos de confiabilidad pueden tener una serie de características especiales que requieren el uso de métodos estadísticos especiales. Por ejemplo:

• Los datos de confiabilidad suelen estar censurados (no se conocen los tiempos exactos de falla). La razón más común para censurar es la necesidad frecuente de analizar los datos de las pruebas de vida antes de que todas las unidades hayan fallado. De manera más general, la censura surge cuando los valores de respuesta reales (por ejemplo, tiempos de falla) no se pueden observar para algunas o todas las unidades en estudio. Por lo tanto, las observaciones censuradas proporcionan un límite o límites en los tiempos de falla reales.

• La mayoría de los datos de confiabilidad se modelan usando distribuciones para variables aleatorias positivas como exponencial, Weibull, gamma y lognormal. Relativamente pocas aplicaciones utilizan la distribución normal como modelo para la vida útil del producto.

• A menudo se requieren inferencias y predicciones que implican extrapolación. Por ejemplo, es posible que deseemos estimar la proporción de la población que fallará después de 900 horas, en función de una prueba que se ejecuta solo 400 horas (extrapolación en el tiempo). También es posible que deseemos estimar el momento en el que el 1% de la población de un producto fallará a 50ºC según las pruebas a 85ºC (extrapolación en condiciones de funcionamiento).

• A menudo es necesario utilizar la experiencia pasada u otros conocimientos científicos o de ingeniería.

Referencias

Comprar en Amazon

Más Libros en Predictiva21

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Revista #34 Predictiva21

ver todas las ediciones

Prueba nuestra nueva versión y da el salto a Fracttal con un increíble plan de migración. El futuro del mantenimiento está aquí. Ingresa a www.fracttal.com para más información.

¿Te interesa IBM Maximo? Solex partner de IBM, los invita a registrase gratis en ELUM, Encuentro Latinoamericano de Usuarios Maximo. Regístrate aquí: https://elum.cl/

Suscríbete a Predictiva21

Síguenos en Linkedin

×

Hola

Haz clic en nuestro representante para hablar por WhatsApp o escríbenos al correo contacto@predictiva21.com

× ¿Cómo podemos ayudarte?