TY - BOOK AU - Wackerly,Dennis D.,1945- AU - Mendenhall,William AU - Scheaffer,Richard L. TI - Estadística matemática con aplicaciones / SN - 9706861947 PY - 2002/// CY - México : PB - Thomson, KW - ESTADISTICA KW - PROBABILIDAD KW - ESTADISTICA MATEMATICA KW - ESTADISTICA APLICADA N1 - CONTENIDO Prefacio Comentarios al estudiante 1 ¿Qué es la estadística? 1.1 Introducción 1.2 Descripción de un conjunto de mediciones: métodos gráficos 1.3 Descripción de un conjunto de mediciones: métodos numéricos 1.4 Cómo se hacen las inferencias 1.5 Teoría y práctica 1.6 Resumen 2 Probabilidad 2.1 Introducción 2.2 Probabilidad e inferencia 2.3 Repaso de notación de conjuntos 2.4 Modelo probabilístico de un experimento: el caso discreto 2.5 Cálculo de la probabilidad de un evento: método de los puntos muestrales 2.6 Herramientas para contar puntos muestrales 2.7 Probabilidad condicional e independencia de eventos 2.8 Dos leyes de la probabilidad 2.9 Cálculo de la probabilidad de un evento: método de la composición de eventos 2.10 Ley de la probabilidad total y regla de Bayes 2.11 Eventos numéricos y variables aleatorias 2.12 Muestreo aleatorio 2.13 Resumen 3 Variables aleatorias discretas y sus distribuciones de probabilidad 3.1 Definición 3.2 Distribución de probabilidad de una variable aleatoria discreta 3.3 Valor esperado de una variable aleatoria o de una función de una variable aleatoria 3.4 Distribución de probabilidad binomial 3.5 Distribución de probabilidad geométrica 3.6 Distribución de probabilidad binomial negativa (opcional) 3.7 Distribución de probabilidad hipergeométrica 3.8 Distribución de probabilidad de Poisson 3.9 Momentos y funciones generadoras de momentos 3.10 Funciones generadoras de probabilidades (opcional) 3.11 Teorema de Chebyshev 3.12 Resumen 4 Variables aleatorias continuas y sus distribuciones de probabilidad 4.1 Introducción 4.2 Distribución de probabilidad de una variable aleatoria continua 4.3 Valor esperado de una variable aleatoria continua 4.4 Distribución de probabilidad uniforme 4.5 Distribución de probabilidad normal 4.6 Distribución de probabilidad gamma 4.7 Distribución de probabilidad beta 4.8 Algunos comentarios generales 4.9 Otros valores esperados 4.10 Teorema de Chebyshev 4.11 Valores esperados de funciones discontinuas y distribuciones mixtas de probabilidad (opcional) 4.12 Resumen 5 Distribuciones de probabilidad multivariables 5.1 Introducción 5.2 Distribuciones de probabilidad multivariable y bivariable 5.3 Distribuciones de probabilidad marginal y condicional 5.4 Variables aleatorias independientes 5.5 Valor esperado de una función de variables aleatorias 5.6 Teoremas especiales 5.7 Covarianza de dos variables aleatorias 5.8 Valor esperado y varianza de funciones lineales de variables aleatorias 5.9 Distribución de probabilidad multinomial 5.10 Distribución normal bivariable (opcional) 5.11 Esperanzas matemáticas condicionales 5.12 Resumen 6 Funciones de variables aleatorias 6.1 Introducción 6.2 Determinación de la distribución de probabilidad de una función de variables aleatorias 6.3 Método de las funciones de distribución 6.4 Método de las transformaciones 6.5 Método de las funciones generadoras de momentos 6.6 Transformaciones multivariadas con jacobianos (opcional) 6.7 Estadísticos de orden 6.8 Resumen 7 Distribuciones muestrales en el teorema del límite central 7.1 Introducción 7.2 Distribuciones muestrales relacionadas con la distribución normal 7.3 Teorema del límite central 7.4 Demostración del teorema del límite central (opcional) 7.5 Aproximación normal a la distribución binomial 7.6 Resumen 8 Estimación 8.1 Introducción 8.2 Sesgo y media del cuadrado del error de estimadores puntuales 8.3 Algunos estimadores puntuales insesgados comunes 8.4 Evaluación de la bondad de un estimador puntual 8.5 Intervalos de confianza 8.6 Intervalos de confianza con muestras grandes 8.7 Selección del tamaño de la muestra 8.8 Intervalos de confianza con muestras pequeñas para mu y mu1 - mu2 8.9 Intervalos de confianza para sigma 2 8.10 Resumen 9. Propiedades de los estimadores puntuales y métodos de estimación 9.1 Introducción 9.2 Eficiencia relativa 9.3 Consistencia 9.4 Suficiencia 9.5 Teorema de Rao-Blackwell y estimación insesgada con varianza mínima 9.6 Método de los momentos 9.7 Método de máxima verosimilitud 9.8 Algunas propiedades de los estimadores de máxima verosimilitud con muestras grandes (opcional) 9.9 Resumen 10 Pruebas de hipótesis 10.1 Introducción 10.2 Elementos de una prueba estadística 10.3 Pruebas comunes con muestras grandes 10.4 Cálculo de las probabilidades del error tipo II y determinación del tamaño de la muestra para la prueba Z 10.5 Relaciones entre los procedimientos de pruebas de hipótesis e intervalos de confianza 10.6 Otra forma de informar los resultados de una prueba estadística: niveles de significancia alcanzados o valores p 10.7 Algunos comentarios respecto a la teoría de la prueba de hipótesis 10.8 Prueba de hipótesis con muestras pequeñas para mu y mu 1 - mu 2 10.9 Pruebas de hipótesis referentes a varianzas 10.10 Potencia de las pruebas y el lema de Neyman-Pearson 10.11 Pruebas de la razón de verosimilitud 10.12 Resumen 11 Modelos lineales y estimación mediante mínimos cuadrados 11.1 Introducción 11.2 Modelos estadísticos lineales 11.3 Método de los mínimos cuadrados 11.4 Propiedades de los estimadores de mínimos cuadrados: regresión lineal simple 11.5 Inferencias respecto a los parámetros beta i 11.6 Inferencias referentes a funciones lineales de parámetros del modelo: regresión lineal simple 11.7 Predicción de un valor particular de Y mediante regresión lineal simple 11.8 Correlación 11.9 Ejemplos prácticos 11.10 Ajuste del modelo lineal mediante matrices 11.11 Funciones lineales de los parámetros del modelo: regresión lineal múltiple 11.12 Inferencias referentes a funciones lineales de los parámetros del modelo: regresión lineal múltiple 11.13 Predicción de un valor particular de Y mediante regresión múltiple 11.14 Una prueba para H0: beta g + 2 11.15 Resumen 12 Consideraciones sobre el diseño de experimentos 12.1 Elementos que afectan la información en una muestra 12.2 Diseño de experimentos para mejorar la exactitud 12.3 Experimento de los pares comparados 12.4 Algunos diseños experimantales elementales 12.5 Resumen 13 Análisis de varianza 13.1 Introducción 13.2 Análisis del procedimiento de varianza 13.3 Comparación de más de dos medias: análisis de varianza para un diseño de un factor 13.4 Tabla de análisis de varianza para un diseño de un factor 13.5 Modelo estadístico para el diseño de un factor 13.6 Prueba de aditividad de las sumas de los cuadrados y valor esperado del cuadrado medio del tratamiento para un diseño de un factor (opcional) 13.7 Estimación en un diseño de un factor 13.8 Modelo estadístico para el diseño de bloques aleatorizado 13.9 Análisis de varianza para un diseño de bloques aleatorizado 13.10 Estimación en el diseño de bloques aleatorizado 13.11 Selección del tamaño de la muestra 13.12 Intervalos de confianza simultáneos para más de un parámetro 13.13 Análisis de varianza con modelos lineales 13.14 Resumen 14 Análisis de datos enumerativos 14.1 Descripción del experimento 14.2 Prueba ji-cuadrada 14.3 Prueba de una hipótesis relacionada con probabilidades especificadas para las celdas: prueba de la bondad del ajuste 14.4 Tablas de contingencia 14.5 Tablas r X c con totales fijos de renglón o de columna 14.6 Otras aplicaciones 14.7 Resumen 15 Estadística no paramétrica 15.1 Introducción 15.2 Modelo general de desplazamiento de dos muestras 15.3 Prueba de los signos para un experimento de pares comparados 15.4 Prueba de rangos con signo de Wilcoxon para un experimento de pares comparados 15.5 Uso de rangos para comparar dos distribuciones de población: muestras aleatorias independientes 15.6 Prueba U de Mann-Whitney: muestras aleatorias independientes 15.7 Prueba de Kruskal-Wallis para un modelo de un factor 15.8 Prueba de Friedman para diseños de bloques aleatorizados 15.9 Prueba de rachas: una prueba de aleatoriedad 15.10 Coeficiente de correlación de rangos 15.11 Comentarios generales sobre las pruebas estadísticas no paramétricas Apéndice 1 Matrices y otros resultados matemáticos útiles A1.1 Matrices y álgebra matricial A1.2 Suma de matrices A1.3 Multiplicación de una matriz por un número real A1.4 Multiplicación de matrices A1.5 Elementos identidad A1.6 Inversa de una matriz A1.7 Traspuesta de una matriz A1.8 Expresión matricial de un sistema de ecuaciones lineales simultáneas A1.9 Inversión de una matriz A1.10 Solución de un sistema de ecuaciones lineales simultáneas A1.11 Otros resultados matemáticos útiles Apéndice 2 Distribuciones de probabilidad medias, varianzas y funciones generadoras de momentos comunes A2.1 Distribuciones discretas A2.2 Distribuciones continuas Apéndice 3 Tablas Tabla 1 Probabilidades binomiales Tabla 2 Tabla de e (-x) Tabla 3 Probabilidades de Poisson Tabla 4 Áreas bajo la curva normal Tabla 5 Puntos porcentuales de las distribuciones t Tabla 6 Puntos porcentuales de las distribuciones X (2) Tabla 7 Puntos porcentuales de las distribuciones F Tabla 8 Función de distribución de U Tabla 9 Valores críticos de T en la prueba de rangos con signo de Wilcoxon de pares comparados n Tabla 10 Distribución del número total de rachas R en muestras de tamaño (n1, n2); P (R menor/igual a) Tabla 11 Valores críticos del coeficiente de correlación de rangos de Spearman Tabla 12 Números aleatorios Respuestas a los ejercicios Indice ER -