Amazon cover image
Image from Amazon.com

Probabilidad y estadística : aplicaciones y métodos / George C. Canavos.

By: Material type: TextTextLanguage: Spanish Publication details: México : McGraw-Hill, 1988Description: 651 pContent type:
  • texto
Media type:
  • sin mediación
Carrier type:
  • volumen
ISBN:
  • 9684518560
Subject(s):
Contents:
Tags from this library: No tags from this library for this title. Log in to add tags.
Star ratings
    Average rating: 0.0 (0 votes)
Holdings
Item type Current library Call number Status Barcode
Libros Libros Facultad Regional Santa Fe 519.2 C16 (Browse shelf(Opens below)) 4 6981
Libros Libros Facultad Regional Santa Fe 519.2 C16 (Browse shelf(Opens below)) Available 7158

CONTENIDO
CAPITULO UNO. Introducción y estadística descriptiva 1
1.1 Introducción 1
1.2 Descripción gráfica de los datos 3
1.3 Medidas numéricas descriptivas 11
Apéndice: Sumatorias y otras notaciones simbólicas 25
CAPITULO DOS. Conceptos en probabilidad 28
2.1 Introducción 28
2.2 La definición clásica de probabilidad 29
2.3 Definición de probabilidad como frecuencia relativa 30
2.4 Interpretación subjetiva de la probabilidad 31
2.5 Desarrolló axiomático de la probabilidad 32
2.6 Probabilidades conjunta, marginal y condicional 36
2.7 Eventos estadísticamente independientes 41
2.8 El teorema de Bayes 43
2.9 Permutaciones y combinaciones 45
CAPITULO TRES. Variables aleatorias y distribuciones de probabilidad 52
3.1 El concepto de variable aleatoria 52
3.2 Distribuciones de probabilidad de variables aleatorias discretas 53
3.3 Distribuciones de probabilidad de variables aleatorias continuas 57
3.4 Valor esperado de una variable aleatoria 62
3.5 Momentos de una variable aleatoria 67
3.6 Otras medidas de tendencia central y dispersión 75
3.7 Funciones generadoras de momentos 80
CAPITULO CUATRO. Algunas distribuciones discretas de probabilidad 88
4.1 Introducción 88
4.2 La distribución binomial 89
4.3 La distribución de Poisson 100
4.4 La distribución hipergeométrica 108
4.5 La distribución binomial negativa 115
Apéndice: Deducción de la función de probabilidad de Poisson 126
Apéndice: Demostración del teorema 4.1 128
CAPITULO CINCO. Algunas distribuciones continuas de probabilidad 130
5.1 Introducción 130
5.2 La distribución normal 130
5.3 La distribución uniforme 143
5.4 La distribución beta 147
5.5 La distribución gama 152
5.6 La distribución de Weibull 159
5.7 La distribución exponencial negativa 163
5.8 La distribución de una función de variable aleatoria 167
5.9 Conceptos básicos en la generación de números aleatorios por computadora 171
5.9.1 Distribución uniforme sobre el intervalo (a, b) 173
5.9.2 La distribución de Weibull 173
5.9.3 La distribución de Erlang 174
5.9.4 La distribución normal 174
5.9.5 La distribución binomial 174
5.9.6 La distribución de Poisson 175
Apéndice: Demostración de que la expresión (5.1) es una función de densidad de probabilidad 181
Apéndice: Demostración del teorema 5.1 182
CAPITULO SEIS. Distribuciones conjuntas de probabilidad 185
6.1 Introducción 185
6.2 Distribuciones de probabilidad bivariadas 185
6.3 Distribuciones marginales de probabilidad 189
6.4 Valores esperados y momentos para distribuciones bivariadas 191
6.5 Variables aleatorias estadísticamente independientes 194
6.6 Distribuciones de probabilidad condicional 197
6.7 Análisis bayesiano: las distribuciones a priori y a posteriori 200
6.8 La distribución normal bivariada 207
CAPITULO SIETE. Muestras aleatorias y distribuciones de muestreo 214
7.1 Introducción 214
7.2 Muestras aleatorias 214
7.3 Distribuciones de muestreo de estadísticas 218
7.4 La distribución de muestreo de A' 209
7.5 La distribución de muestreo de S' 231
7.6 La distribución t de Student 234
7.7 La distribución de la diferencia entre dos medias muestrales 238
7.8 La distribución F 240
Apéndice: Demostración del teorema central del límite 247
Apéndice: Deducción de la función de densidad de probabilidad t de Student 249
CAPÍTULO OCHO. Estimación puntual y por intervalo 251
8.1 Introducción 251
8.2 Propiedades deseables de los estimadores puntuales 251
8.2.1 Estimadores insesgados 255
8.2.2 Estimadores consistentes 256
8.2.3 Estimadores insesgados de varianza mínima 259
8.2.4 Estadísticas suficientes 261
8.3 Métodos de estimación puntual 264
8.3.1 Estimación por máxima verosimilitud 264
8.3.2 Método de los momentos 268
8.3.3 Estimación por máxima verosimilitud para muestras censuradas 269
8.4 Estimación por intervalo 271
8.4.1 Intervalos de confianza para y, cuando se muestrea una distribución normal con varianza conocida 274
8.4.2 Intervalos de confianza para p cuando se muestrea una distribución normal con varianza desconocida 277
8.4.3 Intervalos de confianza para la diferencia de medias cuando se muestran dos distribuciones normales independientes 278
8.4.4 Intervalos de confianza para s2 cuando se muestrea una distribución normal con media desconocida 280
8.4.5 Intervalos de confianza para el cociente de dos varianzas cuando se muestran dos distribuciones normales independientes 281
8.4.6 Intervalos de confianza para el par metro de proporción p cuando se muestrea una distribución binomial 282
8.5 Estimación bayesiana 285
8.5.1 Estimación puntual bayesiana 286
8.5.2 Estimación bayesiana por intervalo 288
8.6 Límites estadísticos de tolerancia 290
8.6.1 Límites de tolerancia independientes de la distribución 290
8.6.2 Límites de tolerancia cuando se muestrea una distribución normal 293
CAPITULO NUEVE. Prueba de hipótesis estadísticas 303
9.1 Introducción 303
9.2 Conceptos básicos para la prueba de hipótesis estadísticas 303
9.3 Tipos de regiones críticas y la función de potencia 311
9.4 Las mejores pruebas 314
9.5 Principios generales para probar una H, simple contra una H1 uni o bilateral 321
9.5.1 Principios generales para el caso 1 323
9.5.2 Principios generales para el caso 2 324
9.5.3 Principios generales para el caso 3 325
9.6 Prueba de hipótesis con respecto a las medias cuando se muestrean distribuciones normales 326
9.6.1 Pruebas para una muestra 327
9.6.2 Pruebas para dos muestras 333
9.6.3 Reflexión sobre las suposiciones y sensitividad 338
9.6.4 Prueba sobre las medias cuando las observaciones están pareadas 340
9.7 Pruebas de hipótesis con respecto a las varianzas cuando se muestrean distribuciones normales 346
9.7.1 Pruebas para una muestra 346
9.7.2 Pruebas para dos muestras 348
9.8 Inferencias con respecto a las proporciones de dos distribuciones binomiales independientes 350
CAPITULO DIEZ. Pruebas de bondad de ajuste y análisis de tablas de contingencia 362
10.1 Introducción 362
10.2 La prueba de bondad de ajuste chi-cuadrada 363
10.3 La estadística de Kolmogorov-Smirnov 368
10.4 La prueba chi-cuadrada para el análisis de tablas de contingencia con dos criterios de clasificación 370
CAPITULO ONCE. Métodos para el control de calidad y muestreo para aceptación 379
11.1 Introducción 379
11.2 Tablas de control estadístico 379
11.2.1 Tablas X (media conocida de la población) 381
11.2.2 Tablas S (desviación estándar conocida de la población) 383
11.2.3 Tablas X y S (media y varianza desconocidas de la población) 304
11.3 Procedimientos del muestreo para aceptación 388
11.3.1 El desarrollo de planes de muestreo sencillos para riesgos estipulados del productor y del consumidor 392
11.3.2 Muestreo para aceptación por variables 393
11.3.3 Sistemas de planes de muestreo 396
CAPITULO DOCE. Diseño y análisis de experimentos estadísticos 401
12.1 Introducción 401
12.2 Experimentos estadísticos 401
12.3 Diseños estadísticos 403
12.4 Análisis de experimentos unifactoriales en un diseño completamente aleatorio 404
12.4.1 Análisis de varianza para un modelo de efectos fijos 407
12.4.2 Método de Scheffé para comparaciones múltiples 413
12.4.3 Análisis de residuos y efectos de la violación de las suposiciones 415
12.4.4 El caso de efectos aleatorios 418
12.5 Análisis de experimentos con sólo un factor en un diseño en bloque completamente aleatorizado 420
12.6 Experimentos factoriales 426
CAPITULO TRECE. Análisis de regresión: el modelo lineal simple 443
13.1 Introducción 443
13.2 El significado de la regresión y suposiciones básicas 444
13.3 Estimación por mínimos cuadrados para el modelo lineal simple 448
13.4 Estimación por máxima verosimilitud para el modelo lineal simple 455
13.5 Propiedades generales de los estimadores de mínimos cuadrados 457
13.6 Inferencia estadística para el modelo lineal simple 465
13.7 El uso del análisis de varianza 470
13.8 Correlación lineal 477
13.9 Series de tiempo y autocorrelación 479
13.9.1 Componentes de una serie de tiempo 479
13.9.2 La estadística de Durbin-Watson 480
13.9.3 Eliminación de la autocorrelación mediante la transformación de datos 485
13.10 Enfoque matricial para el modelo lineal simple 488
Apéndice: Breve revisión del álgebra de matrices 497
CAPÍTULO CATORCE. Análisis de regresión: el modelo lineal general
14.1 Introducción 503
14.2 El modelo lineal general 503
14.3 Principio de la suma de cuadrados extra 513
14.4 El problema de la multicolinealidad 520
14.5 Determinación del mejor conjunto de variables de predicción 525
14.6 Análisis de residuos o residuales 532
14.7 Regresión polinomial 538
14.8 Mínimos cuadrados con factores de peso 547
14.9 Variables indicadoras 556
CAPITULO QUINCE. Métodos no paramétricos 572
15.1 Introducción 572
15.2 Pruebas no paramétricas para comparar dos poblaciones con base en muestras aleatorias independientes 574
15.2.1 Prueba de Mann-Whitney 574
15.2.2 Prueba de tendencias de Wald-Wolfowitz 577
15.3 Pruebas no paramétricas para observaciones por pares 578
15.3.1 La prueba del signo 579
15.3.2 Prueba de rangos de signos de Wilcoxon 580
15.4 Prueba de Kruskal-Wallis para k muestras aleatorias independientes 582
15.5 Prueba de Friedman para k muestras igualadas 584
15.6 Coeficiente de correlación de rangos de Spearman 586
15.7 Comentarios finales 588

There are no comments on this title.

to post a comment.