Curso Elemental de Probabilidad y Estadística - UNAM PDF
Curso Elemental de Probabilidad y Estadística - UNAM PDF
Curso Elemental de Probabilidad y Estadística - UNAM PDF
Probabilidad y Estadística
Luis Rincón
Versión: Diciembre 2007
Curso elemental de
PROBABILIDAD Y ESTADÍSTICA
Luis Rincón
Departamento de Matemáticas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 México DF
Luis Rincón
Diciembre 2007
Ciudad Universitaria UNAM
lars@fciencias.unam.mx
Contenido
1. PROBABILIDAD 5
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. Análisis combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4. Probabilidad condicional e independencia . . . . . . . . . . . . . . . 28
1.5. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.6. Funciones de densidad y de distribución . . . . . . . . . . . . . . . . 39
1.7. Esperanza, varianza, momentos . . . . . . . . . . . . . . . . . . . . . 45
1.8. Distribuciones de probabilidad . . . . . . . . . . . . . . . . . . . . . 52
1.9. Vectores Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2. ESTADÍSTICA 83
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.2. Variables y tipos de datos . . . . . . . . . . . . . . . . . . . . . . . . 84
2.3. Estadı́stica descriptiva . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4. Muestras aleatorias y estadı́sticas . . . . . . . . . . . . . . . . . . . . 88
2.5. Estimación puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.6. Estimación por intervalos . . . . . . . . . . . . . . . . . . . . . . . . 93
2.7. Pruebas de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A. Ejercicios 107
B. Soluciones 139
C. Formulario 167
3
4 Contenido
Parte 1
PROBABILIDAD
5
6 1.1. Introducción
1.1. Introducción
sabemos cuál será el resultado del experimento aleatorio, asi que por lo menos con-
viene agrupar en un conjunto a todos los resultados posibles. El espacio muestral
(o también llamado espacio muestra de un experimento aleatorio es el conjunto de
todos los posibles resultados del experimento, y se le denota generalmente por la
letra griega Ω (omega). Más adelante mostraremos que este conjunto no es nece-
sariamente único y su determinación depende del interés del observador o persona
que realiza el experimento aleatorio. En algunos textos se usa también la letra S
para denotar al espacio muestral. Esta letra proviene del término sampling space de
la lengua inglesa equivalente a espacio muestral. Por otro lado, llamaremos evento
a cualquier subconjunto del espacio muestral y denotaremos a los eventos por las
primeras letras del alfabeto en mayúsculas: A, B, C, etc. Con la ayuda de algunos
ejemplos ilustraremos a continuación los conceptos de espacio muestral y evento.
Ejercicio. Suponga que se tiene en operación una sala de cómputo con 100 compu-
tadoras. Encuentre un espacio muestral para el experimento de observar la confi-
guración de máquinas, desde el punto de vista de uso o no uso, en un momento
cualquiera del dı́a.
A∪B = {ω ∈ Ω : ω ∈ A ó ω ∈ B},
A∩B = {ω ∈ Ω : ω ∈ A y ω ∈ B},
A−B = {ω ∈ Ω : ω ∈ A y ω ∈
/ B},
Ac = {ω ∈ Ω : ω ∈
/ A}.
A B A B
Ω Ω
A∪B A∩B
Figura 1.1:
A B
A
Ω Ω
c
A−B A
Figura 1.2:
A ∩ B, A − B y B − A.
Es fácil verificar que el conjunto vacı́o y el conjunto total satisfacen las siguientes
propiedades elementales: A ∪ ∅ = A, A ∩ Ω = A, A ∩ ∅ = ∅, A ∪ Ac = Ω,
A ∪ Ω = Ω, A ∩ Ac = ∅. Las operaciones unión e intersección son asociativas, esto
es, satisfacen las siguientes igualdades:
A ∪ (B ∪ C) = (A ∪ B) ∪ C,
A ∩ (B ∩ C) = (A ∩ B) ∩ C,
y también son distributivas, es decir,
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
A B
Ω
A△B
Figura 1.3:
Este concepto puede extenderse al caso cuando se tienen varios conjuntos. Decimos
que n conjuntos A1 , . . . , An son ajenos si A1 ∩ · · · ∩ An = ∅, y se dice que son
ajenos dos a dos (o mutuamente ajenos) si Ai ∩ Aj = ∅ para cualesquiera valores
de los ı́ndices i, j = 1, 2, . . . , n, con i distinto de j. Existe diferencia en estas dos
definiciones y explicaremos la situación con el siguiente ejemplo: Los conjuntos
A = {1, 2}, B = {2, 3} y C = {3, 4} son ajenos pues A ∩ B ∩ C = ∅, pero no son
ajenos dos a dos pues, por ejemplo, el conjunto A ∩ B no es vacı́o. Es decir, estos
conjuntos son ajenos en el sentido de que la intersección de todos ellos es vacı́a
pero no son ajenos dos a dos.
2Ω = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
Observe que los elementos del conjunto potencia son en si mismos conjuntos, y que
12 1.1. Introducción
en esta colección estan contenidos todos los eventos que podrı́an ser de interés en un
experimento aleatorio. No es difı́cil demostrar que #(2Ω ) = 2#Ω , es decir, el número
de elementos en el conjunto 2Ω es exactamente 2 elevado a la potencia dada por
la cardinalidad de Ω. De este hecho proviene la notación usada para el conjunto
potencia: 2Ω . Observe que la expresión 2Ω no tiene sentido matemático, y debe
considerarse como un sı́mbolo para denotar al conjunto potencia. Para el ejemplo
anterior se comprueba que la cardinalidad de 2Ω es efectivamente 2#Ω = 23 = 8.
1.2. Probabilidad
En este caso, debemos hacer notar que no es humanamente posible llevar a cabo una
infinidad de veces el experimento aleatorio, de modo que en la práctica no es posible
encontrar mediante este mecanismo la probabilidad de un evento cualquiera. Esta
limitación hace que esta definición de probabilidad no sea enteramente formal, pero
tiene algunas ventajas. Veamos un ejemplo concreto. Consideremos nuevamente el
experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del
evento A definido como el conjunto {2, 4, 6}. Después de lanzar el dado 20 veces se
obtuvieron los siguientes resultados:
n(A)/n
b b b
b
b b b
b b
b b
1/2 b b b b
b
b
b
b
b
n
2 4 6 8 10 12 14 16 18 20
Figura 1.4:
Parte 1. PROBABILIDAD 15
Axiomas de la probabilidad
1. P (A) ≥ 0.
2. P (Ω) = 1.
3. P (A ∪ B) = P (A) + P (B),
cuando A ∩ B = ∅.
A. N. Kolmogorov
(Rusia, 1903–1987)
una teorı́a.
16 1.2. Probabilidad
Proposición. P (∅) = 0.
A B
Figura 1.5: A ⊆ B.
A∪B = (A − B) ∪ (A ∩ B) ∪ (B − A)
= (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B).
P (A ∪ B) = P (A − A ∩ B) + P (A ∩ B) + P (B − A ∩ B).
A B A B
Ω C Ω
(a) A ∪ B (b) A ∪ B ∪ C
Figura 1.6:
P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C]
= P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C)
= P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C))
= P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C)
+P (A ∩ B ∩ C).
Las propiedades anteriores son parte del estudio teórico y general de la probabili-
dad. En general, supondremos que la forma explı́cita de calcular estos números es
conocida, o que se puede suponer un cierto modelo para llevar a cabo estos cálculos
dependiendo del experimento aleatorio en cuestión. Por ejemplo, cuando el espacio
muestral es finito y cada resultado puede suponerse igualmente probable, entonces
usaremos la definición clásica de probabilidad. En otras situaciones asignaremos
probabilidades de acuerdo a ciertos modelos conocidos. Regresaremos a este punto
más adelante. A manera de resumen presentamos a continuación una tabla con las
propiedades de la probabilidad que hemos demostrado.
Para ilustrar este resultado considere el siguiente ejemplo. Suponga que un cierto
experimento aleatorio consiste en seleccionar un dado y después seleccionar al azar
una letra del alfabeto. ¿Cuál es la cardinalidad del correspondiente espacio mues-
tral? El experimento de lanzar un dado tiene 6 resultados posibles y consideremos
que tenemos un alfabeto de 26 letras. El correspondiente espacio muestral tiene
entonces cardinalidad 6 × 26 = 156. El principio de multiplicación es válido no
solamente para dos procedimientos sino que también vale para cualquier sucesión
finita de procedimientos. Por ejemplo, si A1 , A2 , . . . , Ak denotan k procedimien-
Parte 1. PROBABILIDAD 21
n objetos k objetos
urna muestra
Figura 1.7:
Ejercicio. Diez personas votarán por uno de tres candidatos. ¿De cuántas formas
distintas pueden los votos ser registrados uno por uno? Solución: 59049.
Ejemplo. ¿De cuantas formas distintas pueden asignarse los premios primero, se-
gundo y tercero en una rifa de 10 boletos numerados del 1 al 10? Claramente se
trata de una ordenación sin repetición de 10 objetos en donde se deben extraer 3 de
Parte 1. PROBABILIDAD 23
Ejercicio. ¿De cuántas formas distintas pueden dos equipos de fútbol terminar en
la clasificación general de un torneo en donde compiten 20 equipos? Solución: 380.
n! = n(n − 1)(n − 2) · · · 3 · 2 · 1.
Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de
la fórmula anterior, está siendo contado k! veces, las veces en que los mismos k
elementos pueden ser permutados unos con otros, siendo que el conjunto de ele-
mentos es el mismo. Para obtener arreglos en donde el orden no importa, debemos
entonces dividir por k! La fórmula a la que hemos llegado se llama combinaciones
de n en k, que denotaremos como sigue:
n n!
= .
k k! (n − k)!
(a + b)2 = a2 + 2ab + b2 .
(a + b)3 = a3 + 3a2 b + 3ab2 + b3 .
Ejercicio. En un popular juego de loterı́a se pide adivinar los seis números que serán
escogidos al azar dentro del conjunto {1, 2, . . . , 49}. ¿Cuál es el total de arreglos
con los cuales un jugador puede participar en este juego? Si se establece que un
jugador obtiene un segundo lugar si acierta únicamente a cinco de los seis números
seleccionados, ¿cuántos segundos lugares puede haber para una arreglo dado de
seis números?
Parte 1. PROBABILIDAD 25
Ejercicio. Un cierto partido de fútbol terminó con un marcador de 4-4. ¿De cuántas
formas distintas pudieron los equipos alternarse en anotar para llegar a tal resulta-
do? Solución: 70. ¿Cree usted que todos estos resultados son igualmente probables?
El coeficiente binomial es también una forma de generar las entradas del ası́ llamado
triángulo de Pascal, que puede observarse en Figura 1.8.
1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
1 6 15 20 15 6 1
Figura 1.8:
El n-ésimo renglón del triángulo de Pascal, iniciando desde cero, contiene los coe-
ficientes del desarrollo de (a + b)n . Existe una forma sencilla de construir este
triángulo observando que cada uno de estos números, exceptuando los extremos, es
la suma de los dos números inmediatos del renglón anterior. A este respecto véase
por ejemplo el Ejercicio 53 en la página 112.
pueden escribirse todos estos objetos uno detrás de otro es n! Pero para cada uno
de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente distintos
cuando en realidad no lo son, pueden permutarse entre sı́ de k1 ! formas diferentes,
siendo que el arreglo total es el mismo. De aqui que debamos dividir por k1 ! Lo
mismo sucede con los elementos del segundo tipo y ası́ sucesivamente hasta los
elementos del tipo m. El coeficiente multinomial aparece en la siguiente fórmula:
X n
(a1 + a2 + · · · + am )n = ak1 ak2 · · · akmm , (1.1)
k1 · · · km 1 2
en donde la suma se efectúa sobre todos los posibles valores enteros no negativos
de k1 , k2 , . . . , km , tales que k1 + k2 + · · ·+ km = n. Por ejemplo, compruebe el lector
que la fórmula (1.1) produce la siguiente expresión:
×× × × ··· ×
1 2 3 4 ··· n−1 n
Figura 1.9:
La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos
veces, la segunda casilla esta vacı́a y ello significa que la bola dos no fue seleccionada,
etc. El número de cruces en la casilla i indica entonces el número de veces que la
bola i fue seleccionada. En total debe haber k cruces pues es el total de extracciones.
Deseamos entonces conocer el número de posibles arreglos que pueden obtenerse con
estas caracterı́sticas, y debe ser claro, después de algunos momentos de reflexión,
que éste es el número de muestras de tamaño k, con reemplazo y sin orden, que se
Parte 1. PROBABILIDAD 27
n!
con orden nk (n − k)!
n+k−1 n
sin orden
k k
28 1.4. Probabilidad condicional e independencia
Ejemplo. Suponga que se lanza una moneda dos veces. Es una hipótesis natural
suponer que el resultado del primer lanzamiento no afecta el resultado del segundo
lanzamiento. De este modo cualquier evento del primer ensayo es independiente de
cualquier otro evento en el segundo ensayo.
Ejemplo. —
B1 B2 B3 · · ·
A
Ω
Figura 1.10:
Ejemplo. Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris,
la otra con 6 blancas y 6 grises. Si se elije una caja al azar y después se saca una
bola, ¿cuál es la probabilidad de que sea blanca?
Caja 1 Caja 2
Figura 1.11:
El experimento aleatorio consiste entonces en escoger una caja al azar, con idéntica
probabilidad cada una de ellas, y después escoger una bola de la caja escogida. Es
claro entonces que el espacio muestral puede escribirse como sigue
en donde C1 y C2 denotan los eventos en donde las cajas uno y dos fueron escogidas,
respectivamente, y B y G denotan los eventos en donde una bola blanca o gris fueron
32 1.4. Probabilidad condicional e independencia
P (A|Bj )P (Bj )
P (Bj |A) = n .
X
P (A|Bi )P (Bi )
i=1
P (A ∩ Bj )
P (Bj |A) =
P (A)
P (A|Bj )P (Bj )
=
P (A)
P (A|Bj )P (Bj )
= n .
X
P (A|Bi )P (Bi )
i=1
Véase la Figura 1.10 para una representación gráfica de la partición del espacio
muestral y el evento A. Nuevamente observamos que en el caso cuando la partición
de Ω consta de sólo dos elementos: B y B c , el teorema de Bayes, para el evento B,
adquiere la forma:
P (A|B)P (B)
P (B|A) = .
P (A|B)P (B) + P (A|B c )P (B c )
P (D|M2 )P (M2 )
P (M2 |D) =
P (D|M1 )P (M1 ) + P (D|M2 )P (M2 )
5 40
100 × 100
= 3 60 5 40
100 × 100 + 100 × 100
10
= .
19
¿Puede usted calcular P (M1 |D)?
P (N |E)P (E)
P (E|N ) =
P (N |E)P (E) + P (N |E c )P (E c )
0.05 × 0.01
=
0.05 × 0.01 + 0.96 × 0.99
= 0.000526 .
Es bueno que esta probabilidad sea pequeña, pero por otro lado,
P (N c |E)P (E)
P (E|N c ) =
P (N c |E)P (E) + P (N c |E c )P (E c )
0.95 × 0.01
=
0.95 × 0.01 + 0.04 × 0.99
= 0.193 .
Parte 1. PROBABILIDAD 35
X : Ω → R.
Ejemplo. Suponga que un experimento aleatorio consiste en lanzar al aire una mo-
neda y observar la cara superior una vez que la moneda cae. Denotemos por “Cara”
36 1.5. Variables aleatorias
b b
R
ω x
Ω X(ω) = x
Figura 1.12:
ω = (x, y)
Figura 1.13:
Parte 1. PROBABILIDAD 37
Considerando el conjunto de valores que una variable aleatoria puede tomar, vamos
a clasificar a las variables aleatorias en dos tipos: discretas o continuas. Decimos
que una v.a. es discreta cuando el conjunto de valores que ésta toma es un con-
junto discreto, es decir, un conjunto finito o numerable. Por ejemplo, el conjunto
{0, 1, 2, . . . , n} es un conjunto discreto porque es finito, lo mismo N pues aunque
es infinito, es numerable y por lo tanto discreto. Por otra parte, decimos que una
variable aleatoria es continua cuando toma todos los valores dentro de un intervalo
(a, b) ⊆ R. Esta clasificación de variables aleatorias no es completa pues existen va-
riables que no son de ninguno de los dos tipos mencionados. Por simplicidad en este
curso estudiaremos únicamente variables aleatorias que son discretas o continuas.
Usaremos con mucha frecuencia la notación arriba explicada. El lector debe ase-
gurarse de comprender bien que si x es un número real entonces (X ≤ x) es
un subconjunto de Ω y por lo tanto un evento. Lo mismo sucede con el com-
plemento de este conjunto que es (X > x). Podemos escribir entonces la igual-
dad de conjuntos (X ≤ x) ∪ (X > x) = Ω. Y aplicando probabilidad se obtiene
P (X ≤ x) + P (X > x) = 1.
Nota importante. A través de una variable aleatoria se puede considerar que los po-
sibles resultados de un experimento aleatorio no son elementos ω en Ω sino números
reales que la variable aleatoria puede tomar. Esta es una consideración radical pues
ya no consideraremos experimentos aleatorios particulares, ni espacios muestrales
arbitrarios Ω, ni eventos (subconjuntos) de Ω, en lugar de ello consideraremos que
una cierta variable aleatoria de interés toma valores en un cierto subconjunto de
números reales. La probabilidad definida antes para subconjuntos de Ω se traslada,
como explicamos antes, a probabilidades para subconjuntos de R. Esta perspectiva
permite estudiar modelos generales y después aplicarlos a cualquier situación par-
Parte 1. PROBABILIDAD 39
ticular. A partir de ahora y en lo que resta del curso el término variable aleatoria
constituirá un elemento frecuente en los enunciados.
En esta sección vamos a explicar la forma de asociar a cada variable aleatoria dos
funciones que nos proveen de información acerca de las caracterı́sticas de la variable
aleatoria. Estas funciones, llamadas función de densidad y función de distribución,
nos permiten representar a un mismo tiempo tanto los valores que puede tomar la
variable como las probabilidades de los distintos eventos. Definiremos primero la
función de densidad para una variable aleatoria discreta, después para una continua,
y finalmente definiremos la función de distribución para ambos tipos de variables
aleatorias.
Ejemplo. Considere la variable aleatoria discreta X que toma los valores 1, 2 y 3, con
probabilidades 0.3, 0.5 y 0.2 respectivamente. Entonces la función de probabilidad
de X es
0.3 si x = 1,
0.5 si x = 2,
f (x) =
0.2 si x = 3,
0 otro caso.
Esta función se muestra gráficamente en la Figura 1.14 (a). Alternativamente po-
demos también expresar esta función mediante la tabla de la Figura 1.14 (b). En
esta representación se entiende de manera implı́cita que f (x) es cero para cual-
quier valor de x distinto de 1, 2 y 3. En particular, compruebe que las siguientes
probabilidades son correctas: P (X ≥ 2) = 0.7, P (|X| = 1) = 0.3, y P (X < 1) = 0.
f (x)
0.5 b
0.3 b
0.2 b x 1 2 3
f (x) 0.3 0.5 0.2
bc bc bc
x
1 2 3
(a) (b)
Figura 1.14:
Función de densidad para una variable continua. Sea X una variable alea-
toria continua. Decimos que la función integrable y no negativa f (x) : R → [0, ∞)
es la función de densidad de X si para cualquier intervalo (a, b) de R se cumple la
igualdad
Z b
P (X ∈ (a, b)) = f (x) dx.
a
Es decir, la probabilidad de que la variable tome un valor dentro del intervalo
(a, b) se puede calcular o expresar como el área bajo la función de densidad en el
intervalo (a, b). De esta forma el cálculo de una probabilidad se reduce al cálculo
de una integral. Véase la Figura 1.15. No es difı́cil comprobar que toda función de
densidad f (x) de una variable aleatoria continua cumple las siguientes propiedades
análogas al caso discreto.
Toda función f (x) : R → [0, ∞) que satisfaga estas dos propiedades, sin necesidad
de tener una variable aleatoria de por medio, se llamará función de densidad.
f (x)
Z b
P (X ∈ (a, b)) = f (x) dx
a
x
a b
Figura 1.15: La probabilidad como un área.
es una función de densidad de una variable aleatoria continua que toma valores en
el intervalo (1, 3), y cuya gráfica aparece en la Figura 1.16. Observe que se trata
de una función no negativa y cuya integral vale uno.
f (x)
1/2 bc bc
b b
x
1 2 3 4
Figura 1.16:
Por lo tanto, cuando tomamos c = 1 la función del inciso (b) resulta ser una función
de densidad pues ahora cumple con ser no negativa e integrar uno.
Parte 1. PROBABILIDAD 43
cuya gráfica aparece en la Figura 1.17 (a). Este es el comportamiento tı́pico de una
función de distribución discreta, es no decreciente, constante por pedazos, y si la
función tiene una discontinuidad en x, entonces el tamaño de tal discontinuidad es
exactamente la probabilidad de que la variable aleatoria tome ese valor.
F (x) F (x)
1 b
1
0.8 b bc
0.3 b bc
bc
x x
1 2 3 1 2 3
(a) (b)
Figura 1.17:
44 1.6. Funciones de densidad y de distribución
cuya gráfica aparece en la Figura 1.17 (b). Observe que esta función es continua y
no decreciente.
de modo que por el teorema fundamental del cálculo, y cuando F (x) es diferencia-
ble, F ′ (x) = f (x). De este modo podemos encontrar f (x) a partir de F (x).
c) lı́m F (x) = 0.
x→−∞
Demostración.
Todos los seres humanos tenemos caracterı́sticas numéricas que nos identifican y
nos distinguen de otras personas, por ejemplo, la edad, estatura, talla, peso, etc.
Si pudiéramos considerar la totalidad de todos estos números para una persona
en particular, la identificarı́amos de manera única. Algo similar sucede con las
variables aleatorias. En esta sección estudiaremos algunas caracterı́sticas numéricas
asociadas a las variables aleatorias.
46 1.7. Esperanza, varianza, momentos
en donde la suma se efectúa sobre todos los posibles valores que pueda tomar la
variable aleatoria, y se define cuando esta suma sea absolutamente convergente. El
número de sumandos puede ser finito o infinito dependiendo del conjunto de valores
de la variable aleatoria. Si X es continua con función de densidad f (x), entonces
la esperanza es Z ∞
E(X) = xf (x) dx,
−∞
Ejemplo. Sea X una variable aleatoria discreta con función de densidad dada por
la siguiente tabla.
x -1 0 1 2
f (x) 1/8 4/8 1/8 2/8
La esperanza de X es el número
X
E(X) = x f (x)
x
= −1 × 1/8 + 0 × 4/8 + 1 × 1/8 + 2 × 2/8
= 1/2.
Observe que la suma su efectúa para todos los valores de x indicados en la tabla,
es decir: −1, 0, 1 y 2. También es instructivo observar que la esperanza no es nece-
sariamente uno de los valores tomados por la variable aleatoria. En este ejemplo el
Parte 1. PROBABILIDAD 47
valor 1/2 nunca es tomado por la variable aleatoria, pero es su valor esperado.
Observe que la integral sólo es relevante en el intervalo (0, 1), pues fuera de dicho
intervalo la función de densidad se anula.
Ejercicio. Sea X una variable aleatoria discreta con posibles valores en el conjunto
{1, 2, . . . , n}, y tal que la probabilidad de que tome cualquiera de estos valores es
1/n. Compruebe que la esperanza de X es (n + 1)/2.
E(Y ) = E(X 2 )
Z ∞
= x2 f (x) dx
−∞
Z 1
= x2 2x dx
0
1
1 4
= x
2 0
1
= .
2
Ahora, como un ejercicio, encuentre la función de densidad de Y y calcule E(Y )
usando la definición de esperanza. El resultado debe ser nuevamente 1/2.
Ejercicio. Sea X una variable aleatoria con función de probabilidad dada por la
tabla que aparece abajo. Encuentre la función de probabilidad de X 2 y mediante
la definición calcule E(X 2 ). Ahora calcule la misma esperanza pero usando (1.3).
Ambos resultados deben coincidir.
x -2 -1 0 1 2
f (x) 2/8 1/8 2/8 1/8 2/8
Varianza. Vamos ahora a definir otra caracterı́stica numérica asociada a las va-
riables aleatorias llamada varianza. Se denota por Var(X) y se define como sigue.
X
(x − E(X))2 f (x) si X es discreta.
x
Var(X) = Z ∞
(x − E(X))2 f (x) dx si X es continua.
−∞
Observe
que en una
sola expresión la varianza se puede escribir como sigue: Var(X) =
E (X − E(X))2 . La varianza es una medida del grado de dispersión de los dife-
rentes valores tomados por la variable. Se le denota regularmente por la letra σ 2
(sigma cuadrada). A la raı́z cuadrada positiva de la varianza, esto es σ, se le llama
desviación estándar. Nuevamente la anterior suma o integral puede no existir y en
ese caso decimos que la variable aleatoria no tiene varianza finita. Observemos que
para calcular Var(X) necesitamos conocer primero E(X). Veamos algunos ejemplos
sencillos.
x -1 0 1 2
f (x) 1/8 4/8 1/8 2/8
a) Var(X) ≥ 0.
b) Var(c) = 0.
c) Var(c X) = c2 Var(X).
d) Var(X + c) = Var(X).
e) Var(X) = E(X 2 ) − E 2 (X).
f) En general, Var(X + Y ) 6= Var(X) + Var(Y ).
f (x) F (x)
1/5 b b b b b
1 b
b bc
b bc
b bc
b bc
bc bc bc bc bc
x bc
x
1 2 3 4 5 1 2 3 4 5
Figura 1.18:
entonces
px (1 − p)1−x si x = 0, 1.
P (X = x) =
0 otro caso.
f (x) F (x)
1 1 b
0.7 b
0.3 b
0.3 b bc
bc bc
x bc
x
0 1 0 1
Figura 1.19:
pero hemos colocado los x éxitos en los primeros x ensayos, tenemos entonces que
multiplicar por las diferentes formas en que estos x éxitos
pueden distribuirse en los
n ensayos, este factor es el coeficiente binomial nx . Para esta distribución puede
demostrarse que E(X) = np, y Var(X) = np(1 − p).
f (x)
0.3 b
0.2 b
n = 10
b p = 0.3
0.1 b
b
b
b
bc bc bc bc bc bc bc bc b b b
x
1 2 3 4 5 6 7 8 9 10
Figura 1.20:
f (x)
0.4 b
0.3
b
0.2 p = 0.4
b
0.1 b
b
b
b b
bc bc bc bc bc bc bc bc b b b
x
1 2 3 4 5 6 7 8 9 10
Figura 1.21:
Ejercicio. Una persona participa cada semana con un boleto en un juego de loterı́a
en donde la probabilidad de ganar el primer premio es p = 10−6 = 1/1, 000, 000.
Parte 1. PROBABILIDAD 57
¿Cuántos años en promedio debe esta persona participar en el juego antes de ob-
tener el primer premio?
Ejercicio. Sea X una variable aleatoria con distribución geo(p). Demuestre que la
función de distribución de X es
0 si x < 0,
1
1 − (1 − p) si 0 ≤ x < 1,
1 − (1 − p)2
si 1 ≤ x < 2,
F (x) =
. . . ...
k+1
1 − (1 − p) si k ≤ x < k + 1,
... ...
f (x)
0.3 b b
0.2 b λ =2
b
0.1 b
b
b
bc bc bc bc bc bc bc b b
x
1 2 3 4 5 6 7 8
Figura 1.22:
Ejemplo. En promedio uno de cada 100 focos producido por una máquina es defec-
tuoso. Calcule la probabilidad de encontrar 5 focos defectuosos en un lote de 1000
focos. Sugerencia: Use la distribución Poisson como aproximación de la distribución
binomial.
unitaria, [0, 1]. Suponga ahora que nos interesa observar las ocurrencias del evento
en un intervalo de longitud diferente, por ejemplo [0, t], con t > 0. Tal conteo de
ocurrencias también sigue una distribución Poisson pero esta vez de parámetro λt.
Por ejemplo, si t = 2, entonces el número de ocurrencias del evento en el intervalo
[0, 2] tiene distribución Poisson(λt). Veamos un ejemplo.
Ejemplo. Se lanza repetidas veces una moneda honesta, cuyos dos resultados son
60 1.8. Distribuciones de probabilidad
f (x)
0.06 b
b
b b
b
b
b
b b
b
b b
0.04 b
b
r=3
b b
b p = 0.2
b
b
0.02 b b
b
b
b
b
b b b b b b
bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc bc
x
5 10 15 20 25 30
Figura 1.23:
f (x)
0.4 b
b
0.3 N = 20
0.2 b
K=7
n=5
0.1 b
b
bc bc bc bc bc b
x
0 1 2 3 4 5
Figura 1.24:
n
x
f (x) = x p (1 − p)n−x f (x) = p (1 − p)x
para x = 0, 1, . . . , n. para x = 0, 1, 2, . . .
Parámetros: n ∈ N, p ∈ (0, 1). Parámetro: p ∈ (0, 1).
Media: np. Media: (1 − p)/p.
Varianza: np(1 − p). Varianza: (1 − p)/p2 .
λx r+x−1
r
f (x) = x!e−λ f (x) = x p (1 − p)x
para x = 0, 1, 2, . . . para x = 0, 1, 2, . . .
Parámetro: λ > 0. Parámetros: r ∈ N, p ∈ (0, 1).
Media: λ. Media: r(1 − p)/p.
Varianza: λ. Varianza: r(1 − p)/p2 .
Distribución hipergeométrica
K
N −K
N
f (x) = x n−x / n
para x = 0, 1, . . . , n.
Parámetros: N, K, n.
Media: nK/N.
Varianza: nK(N − K)(N − n)/(N 2 (N − 1)).
f (x) F (x)
1 bc bc
1
b−a
b b
x x
a b a b
(a) (b)
Figura 1.25:
f (x) F (x)
3 bc
1
2
1 λ=3
b
x x
1 1
(a) (b)
Figura 1.26:
Ejercicio. Sea X una variable aleatoria con distribución exp(λ). Compruebe que la
Parte 1. PROBABILIDAD 65
f (x) f (x)
λ=5
λ=4
λ=3 n=5
1/2 1/2 n=7
n = 10
x x
1 2 3 4 5 6 1 2 3 4 5 6
(a) n = 5 (b) λ = 3
Figura 1.27:
para cualquier número real n tal que esta integral sea convergente. Esta función no
es el tipo de funciones a las que estamos acostumbrados en los cursos de matemáti-
cas en donde regularmente se conoce la expresión exacta de una cierta función y
66 1.8. Distribuciones de probabilidad
se utiliza esta expresión para evaluarla. En este caso, para evaluar la función gama
es necesario substituir el valor de n en el integrando y efectuar la integral infinita.
Afortunadamente no evaluaremos esta integral para cualquier valor de n, sólo para
algunos pocos valores, principalmente enteros, y nos ayudaremos de las siguientes
propiedades:
a) Γ(n + 1) = n Γ(n).
b) Γ(n + 1) = n! si n es entero.
c) Γ(2) = Γ(1) = 1.
√
d) Γ(1/2) = π.
Distribución beta. Decimos que la variable aleatoria continua X tiene una dis-
tribución beta con parámetros a > 0 y b > 0, y escribimos X ∼ beta(a, b), cuando
su función de densidad es
1
xa−1 (1 − x)b−1 si x ∈ (0, 1),
f (x) = B(a, b)
0 otro caso.
para números reales a > 0 y b > 0. Esta función está relacionada con la función
gama a través de la identidad
Γ(a)Γ(b)
B(a, b) = .
Γ(a + b)
Parte 1. PROBABILIDAD 67
Véase la sección de ejercicios para una lista de propiedades de esta función. Para
la distribución beta(a, b) se tiene que E(X) = a/(a + b), y Var(X) = ab/((a + b +
1)(a + b)2 ).
f (x)
x
µ
Figura 1.28:
Proposición. Sea X una variable aleatoria con distribución normal con paráme-
tros µ y σ 2 . Entonces la siguiente variable aleatoria tiene una distribución nor-
mal estándar.
X −µ
Z= . (1.4)
σ
La proposición anterior parece muy modesta pero tiene una gran importancia ope-
racional pues establece que el cálculo de las probabilidades de una variable alea-
toria normal cualquiera se reduce al cálculo de las probabilidades para la normal
estándar. Explicaremos esta situación con más detalle. Suponga que X es una va-
riable aleatoria con distribución N(µ, σ 2 ), y que deseamos calcular, por ejemplo,
P (a < X < b), para a < b números dados. Tenemos entonces que
f (x) f (x)
Φ(x) α
x x
x zα
(a) (b)
Figura 1.29:
n/2
1 1
xn/2−1 e−x/2
si x > 0,
f (x) = Γ(n/2) 2
0 si x ≤ 0.
f (x)
1/2 n=1
n=2
n=3
n=4
x
1 2 3 4 5 6 7 8 9
Figura 1.30:
Γ((n + 1)/2)
f (x) = √ (1 + x2 /n)−(n+1)/2 , para − ∞ < x < ∞.
nπ Γ(n/2)
f (x)
n = 100
n=3
n=1
0.1
x
−4 −3 −2 −1 1 2 3 4
Figura 1.31:
X
p ∼ t(n).
Y /n
X̄ − µ
√ ∼ t(n − 1),
S/ n
Pn Pn
en donde X̄ = n1 i=1 Xi , y S 2 = n1 i=1 (Xi − X̄)2 .
Con esto terminamos con una revisión elemental de algunas distribuciones de pro-
babilidad continuas. Recuerde el lector que existen muchas mas distribuciones de
este tipo. La siguiente tabla contiene un resumen de las distribuciones continuas
mencionadas en esta sección.
Parte 1. PROBABILIDAD 73
(λx)n−1 1 a−1
− x)b−1
f (x) = Γ(n) λ e−λx f (x) = B(a,b) x (1
para x > 0. para x ∈ (0, 1).
Parámetros: n > 0, λ > 0. Parámetros: a > 0, b > 0.
Media: n/λ. Media: a/(a + b).
Varianza: n/λ2 . Varianza: ab/((a + b + 1)(a + b)2 ).
2 2
1 n/2
f (x) = √ 1 e−(x−µ) /2σ f (x) = 1
xn/2−1 e−x/2
2πσ2 Γ(n/2) 2
para x ∈ R. para x > 0.
Parámetros: µ ∈ R, σ > 0. Parámetro: n > 0.
Media: µ. Media: n.
Varianza: σ 2 . Varianza: 2n.
74 1.9. Vectores Aleatorios
Distribución t
Γ((n+1)/2)
f (x) = √
nπ Γ(n/2)
(1 + x2 /n)−(n+1)/2
para x ∈ R.
Parámetro: n > 0.
Media: 0.
Varianza: n/(n − 2), para n > 2.
Esta sección contiene una breve introducción al tema de variables aleatorias multi-
dimensionales o también llamadas vectores aleatorios. Para hacer la escritura corta
se consideran únicamente vectores aleatorios de dimensión dos, aunque todas las
definiciones y resultados que se mencionan pueden extenderse fácilmente, en la
mayorı́a de los casos, para vectores de dimensión superior.
(X, Y )
R2
b b
Figura 1.32:
Parte 1. PROBABILIDAD 75
Es decir, el vector (X, Y ) evaluado en ω es (X, Y )(ω) = (X(ω), Y (ω)) con posible
valor (x, y). Nuevamente observe que el vector con letras mayúsculas (X, Y ) es el
vector aleatorio, mientras que el vector con letras minúsculas (x, y) es un punto
en el plano. Estudiaremos a continuación algunas funciones asociadas a vectores
aleatorios. Estos conceptos son completamente análogos al caso unidimensional
estudiado antes.
a) f (x, y) ≥ 0.
X
b) f (x, y) = 1.
x,y
x/y 0 1
-1 0.3 0.1
1 0.4 0.2
De este arreglo se entiende que la variable X toma valores en el conjunto {−1, 1},
mientras que Y toma valores en {0, 1}. Además las probabilidades conjuntas están
76 1.9. Vectores Aleatorios
dadas por las entradas de la tabla, por ejemplo, P (X = −1, Y = 0) = 0.3, esto es,
la probabilidad de que X tome el valor −1 y al mismo tiempo Y tome el valor 0
es 0.3. La misma información puede escribirse de la siguiente manera.
0.3 si x = −1, y = 0,
0.1 si x = −1, y = 1,
f (x, y) = P (X = x, Y = y) = 0.4 si x = 1, y = 0,
0.2 si x = 1, y = 1,
0 otro caso.
a) f (x, y) ≥ 0.
Z ∞ Z ∞
b) f (x, y) dx dy = 1.
−∞ −∞
Ejemplo. Esta es una de las funciones de densidad conjunta más sencillas. Sean
a < b, c < d, y defina la función
1
si a < x < b, c < y < d,
f (x, y) = (b − a)(d − c)
0 otro caso,
Parte 1. PROBABILIDAD 77
f (x, y)
c
a d
y
b
x
Figura 1.33:
vector (X, Y ), denotada por F (x, y) : R2 → [0, 1], se define para cualquier par de
números reales (x, y) como sigue
F (x, y) = P (X ≤ x, Y ≤ y).
1. lı́m F (x, y) = 1.
x,y→∞
Observe que las primeras cuatro propiedades son análogas al caso unidimensional,
y puede comprobarse geométricamente que la quinta propiedad corresponde a la
probabilidad del evento (a < X ≤ b) ∩ (c < Y ≤ d). Recı́procamente decimos
que una función F (x, y) : R2 → [0, 1] es una función de distribución bivariada si
satisface las anteriores cinco propiedades.
F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ).
Parte 1. PROBABILIDAD 79
En el caso discreto se suman todos los valores de f (u, v) para valores de u menores
o iguales a x y valores de v menores o iguales a y.
∂2
f (x, y) = F (x, y).
∂x ∂y
Todo lo mencionado en estas últimas secciones tiene como objetivo poder enunciar
con precisión el concepto de independencia entre variables aleatorias. Veremos a
continuación este importante concepto que usaremos con regularidad en la segunda
parte del curso.
ESTADÍSTICA
A finales del siglo IXX, y teniendo a Francis Galton (1822-1911) como precursor,
surgen las primeras ideas para inferir información de una población a partir de
datos estadı́sticos. Los métodos y la teorı́a general se desarrollaron a partir de los
inicios del siglo XX gracias a los trabajos de Karl Pearson (1857-1936), Ronald
A. Fisher (1890-1962), Egon Sharpe Pearson (1895-1980) hijo de Karl Pearson, y
Jerzy Neymann (1894-1981).
Hoy en dı́a los métodos de la estadı́stica son usados en muy diversas áreas del
conocimiento humano, sean éstas cientı́ficas, sociales o económicas. Sus métodos y
conclusiones son usados como respaldo cientı́fico para rechazar o aceptar afirma-
ciones, y para la toma de decisiones. Cotidianamente encontramos elementos de
estadı́stica descriptiva en los periódicos, en la radio, en la televisión y en internet.
83
84 2.1. Introducción
2.1. Introducción
Supongamos que tenemos una población de interés, esto es, un conjunto arbitrario
de personas, mediciones u objetos cualesquiera, y deseamos conocer cierta infor-
mación de esta población. Debido a la imposibilidad o no conveniencia de tener
información de todos y cada uno de los elementos de la población, tomamos un pe-
queño subconjunto de ellos, al cual llamaremos muestra. Con base en esta muestra
trataremos de inferir la información de la población en su totalidad.
muestra
población
Figura 2.1:
Las variables pueden ser cuantitativas, cuando se realiza una medición y el resultado
es un número, o pueden ser cualitativas, cuando solamente registran una cualidad o
atributo del objeto o persona en estudio. La edad, el peso y la estatura son ejemplos
de variables cuantitativas en una población de personas, mientras que el sexo y el
estado civil son variables cualitativas.
De acuerdo al número total de sus posibles valores, una variable cuantitativa puede
ser clasificada como discreta cuando sólo puede tomar un número discreto (es decir,
finito o numerable) de valores, o continua cuando puede tomar cualquier valor
dentro de un intervalo (a, b) de la recta real.
De acuerdo con la posible relación que pudieran guardar los valores de una variable,
se cuenta por lo menos con cuatro escalas de medición. Las variables cualitativas
pueden ser clasificadas de acuerdo a dos escalas: escala nominal o escala ordinal.
Mientras que las variables cuantitativas pueden clasificarse por: escala de intervalo
o escala de razón.
Escala nominal. Una variable se llama nominal cuando sus posibles valores no
tienen alguna relación de orden o magnitud entre ellos. Básicamente los valores
de este tipo de variables son etiquetas sin un orden entre ellos. Por ejemplo, si
estamos estudiando una población humana, a la variable sexo podemos asignarle
dos posibles valores: F para femenino, y M para masculino. Los sı́mbolos F y
M son etiquetas arbitrarias, y no existe un orden en ellas ni podemos realizar
operaciones aritméticas. La religión o la nacionalidad son también ejemplos de
variables nominales.
Escala ordinal. En esta escala los valores de la variable tienen un orden pero
no se pueden hacer operaciones aritméticas entre estos valores pues no hay noción
de distancia entre ellos. Por ejemplo, para calificar las caracterı́sticas de un objeto
podemos suponer los siguientes valores: 0=Pésimo, 1=malo, 2=Regular, 3=Bueno,
4=Excelente. En este caso la escala de medición es ordinal pues existe un orden
entre sus valores, pero no se puede decir, por ejemplo, que dos valores regulares
hacen un valor excelente.
Escala de intervalo. En este tipo de escala existe un orden entre los valores de
la variable y existe además una noción de distancia aunque no se pueden realizar
operaciones. No existe el valor natural cero para esta tipo de escala. Por ejemplo,
suponga que los valores de una cierta variable están dados por los dı́as del mes.
Entre el dı́a 10 y el dı́a 20 hay una distancia de diez dı́as, pero no se puede decir
que el dı́a 20 es dos veces el dı́a 10. La temperatura es otro ejemplo de este tipo
86 2.3. Estadı́stica descriptiva
de variable, el posible valor cero depende de la escala que se use para medir la
temperatura (Celsius, Kelvin, Fahrenheit).
medidas de tendencia central como la media, moda y mediana; y también otras me-
didas llamadas de dispersión como la varianza, la desviación estándar y el rango.
Definiremos estos conceptos a continuación.
Ejercicio. Calcule la media, moda y mediana de cada uno de los siguientes conjun-
tos de datos.
a) −5, 2, −3, −2, 4, 4, 2, 5 .
b) 3.5, 2, 7.5, 3.5, 1.5, 4.5, 7.5 .
c) 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
De este modo, cuando se diga, por ejemplo, que una muestra aleatoria es tomada
de una población normal con media µ y varianza σ 2 , ello significa que las variables
aleatorias que forman la m.a. son independientes entre sı́, y todas ellas tienen
la misma distribución normal con los mismos parámetros. Una muestra aleatoria
constituye el elemento básico para llevar a cabo inferencias estadı́sticas.
Veremos a continuación dos ejemplos de estadı́sticas que serán usados con fre-
cuencia más adelante. Considere una muestra aleatoria X1 , . . . , Xn . La función X̄
definida como sigue
n
1X
X̄ = Xi ,
n i=1
es una estadı́stica, y se le conoce con el nombre de media muestral. El otro ejemplo
Parte 2. ESTADÍSTICA 89
1 − 1
Pn
(x −µ) 2
= (√ )n e 2σ2 i=1 i .
2πσ 2
En este caso los estimadores por el método de momentos coinciden con los estima-
dores máximo verosı́miles.
A las estadı́sticas θ̂1 y θ̂2 se les conoce como lı́mites inferior y superior, respec-
tivamente, del intervalo de confianza. Al número 1 − α se le conoce como grado o
coeficiente de confianza. En general, se toma el valor de α cercano a 0 de tal forma
que el grado de confianza, 1 − α, es cercano a 1. En la práctica es común tomar
α =0.05, de modo que el grado de confianza es 1 − α =0.95 . Decimos entonces que
el grado de confianza es del 95 %. Observe que las estadı́sticas θ̂1 y θ̂2 dependen de
una muestra aleatoria X1 , . . . , Xn , de modo que al tomar estas variables aleatorias
distintos valores se generan distintos intervalos de confianza. Esto se ilustra en la
Figura 2.2.
Figura 2.2:
nocida. Sea X1 , . . . , Xn una muestra aleatoria de una población normal con media
desconocida µ y varianza conocida σ 2 . Encontraremos un intervalo de confianza pa-
ra el parámetro µ. Como cada una de Pnlas variables de la muestra tiene distribución
N(µ, σ 2 ), la media muestral X̄ = n1 i=1 Xi tiene distribución N(µ, σ 2 /n). De mo-
do que, estandarizando,
X̄ − µ
√ ∼ N(0, 1).
σ/ n
Para cualquier valor de α ∈ (0, 1) podemos encontrar un valor zα/2 en tablas de
probabilidad normal estándar, véase la Figura 2.3, tal que
X̄ − µ
P ( −zα/2 < √ < zα/2 ) = 1 − α.
σ/ n
f (x)
1−α
α/2 α/2
x
−zα/2 zα/2
Figura 2.3:
De esta forma, el intervalo (X̄ − zα/2 √σn , X̄ + zα/2 √σn ) es un intervalo de confianza
para el parámetro desconocido µ, pues contiene a dicho parámetro con probabili-
dad 1 − α. Observe que todas las expresiones que aparecen en este intervalo son
conocidas. Ilustraremos la aplicación de esta fórmula mediante un ejemplo.
96 2.6. Estimación por intervalos
Ejemplo. Suponga que la vida promedio útil, medida en horas, de focos de 100
watts producidos por cierta compañı́a, puede ser modelada mediante una variable
aleatoria con distribución normal de media µ y varianza σ 2 . Suponga que la des-
viación estándar σ es conocida y es igual a 30 horas. El objetivo es encontrar un
intervalo de confianza para la vida promedio útil µ de los focos producidos por esta
compañı́a. Para ello se toma una muestra de 20 focos y mediante pruebas de la-
boratorio se determina la vida útil de cada uno de ellos. Los resultados x1 , . . . , x20
arrojan una media muestral x̄ de 1050 horas. Si consideramos un nivel de confianza
del 95 %, es decir, α =0.05, de la tabla de probabilidad normal se encuentra que
zα/2 = z0.025 =1.96, y entonces puede ahora calcularse el intervalo
σ σ 30 30
(x̄ − zα/2 √ , x̄ + zα/2 √ ) = (1050 − 1.96 √ , 1050 + 1.96 × √ )
n n 20 20
= (1050 − 13.148, 1050 + 13.148)
= (1036.852, 1063.148).
De esta forma, con una confianza del 95 %, la vida promedio útil de este tipo de
focos es de 1050 ± 13.148 horas.
Ejercicio.
√ Compruebe que la longitud del intervalo aleatorio que aparece en (2.2) es
2zα/2 σ/ n. Observe que la longitud del intervalo decrece conforme el tamaño de la
muestra crece. Además, si la confianza requerida crece, es decir, si 1 − α aumenta,
entonces zα/2 crece (véase la Figura 2.3), y por lo tanto la longitud del intervalo
también crece.
X̄ − µ
P ( −tα/2 < √ < tα/2 ) = 1 − α.
S/ n
f (x)
−α/2 α/2
x
−tα/2 tα/2
Figura 2.4:
X̄ − µ
Z= √ ,
S/ n
X̄ − µ
P ( −zα/2 < √ < zα/2 ) = 1 − α.
S/ n
De esta forma, el intervalo (X̄ − zα/2 √Sn , X̄ + zα/2 √Sn ) es un intervalo de confianza
aproximado para el parámetro desconocido µ pues contiene a dicho parámetro con
probabilidad 1 − α. Observe nuevamente que todas las expresiones que aparecen
en este intervalo son conocidas.
ω 0 1 2 3 4 5 6
∗ ∗ ∗ ∗
H0 : Dado 0 1/6 1/6 1/6 1/6 1/6 1/6
∗ ∗ ∗
H1 : Monedas 1/32 5/32 10/32 10/32 5/32 1/32 0
Las probabilidades de estos errores pueden ser calculadas del siguiente modo.
Por ejemplo, si X tiene una distribución bin(n, p), entonces la afirmación “p =0.2”
es una hipótesis. Si X tiene una distribución N(µ, σ 2 ), entonces la afirmación “µ >
0” es otro ejemplo de hipótesis estadı́stica.
Tanto la hipótesis nula (H0 ) como la hipótesis alternativa (H1 ) pueden ser simple
o compuesta. De este modo tenemos cuatro diferentes tipos de contraste de hipóte-
sis: simple vs simple, simple vs compuesta, compuesta vs simple, y compuesta vs
compuesta.
Como sabemos, al tomar una decisión de este tipo se corre el riesgo de cometer
errores. Al rechazo de la hipótesis nula cuando ésta es verdadera se le conoce como
error tipo I, y a la probabilidad de cometer este primer tipo de error se le denota
por la letra α. En cambio, a la aceptación de la hipótesis nula cuando ésta es falsa
recibe el nombre de error tipo II, y a la probabilidad de cometer este segundo tipo
de error se le denota por la letra β. Estas definiciones de errores se resumen en la
siguiente tabla.
H0 cierta H0 falsa
Eror tipo I
Rechazar H0 Decisión correcta
con probabilidad α
Error tipo II
No rechazar H0 Decisión correcta
con probabilidad β
La información para obtener una regla de decisión que nos lleve a rechazar o no
rechazar un hipótesis estadı́stica provendrá de una muestra aleatoria X1 , . . . , Xn de
la distribución de que se trate. Observe además que al aceptar una hipótesis no se
afirma que ésta sea absolutamente cierta, sino simplemente que es consistente con
los datos de la muestra aleatoria. Si la muestra cambia, posiblemente la decisión
de rechazar o no rechazar también.
Nos limitaremos a mostrar la forma en la que se deriva la regla para llevar a cabo
una prueba de hipótesis acerca de la media de una distribución normal.
Prueba: H0 : µ = µ0 vs H1 : µ 6= µ0
Estadı́stica de prueba: Z = X̄−µ
√0
σ/ n
Región de rechazo: |Z| ≥ zα/2
Error tipo I: α
0 −µ µ0 −µ
Error tipo II: Φ(zα/2 + µσ/ √ 1 ) − Φ(−zα/2 +
n
√ 1 ),
σ/ n
µ1 6= µ0 .
Parte 2. ESTADÍSTICA 103
f (x)
α/2 α/2
x
−zα/2 zα/2
Región de rechazo
Figura 2.5:
Vamos a comprobar la fórmula que aparece en la tabla anterior acerca del error
tipo II. Sea µ1 cualquier número tal que µ1 6= µ0 . Calcularemos la probabilidad del
error tipo II dado que el verdadero valor de µ es µ1 .
Prueba: H0 : µ = µ0 vs H1 : µ < µ0
Estadı́stica de prueba: Z = X̄−µ
√0
σ/ n
Región de rechazo: Z ≤ −zα
Error tipo I: α
µ0 −µ
Error tipo II: 1 − Φ −zα + √1
σ/ n
, µ1 < µ0
f (x)
x
−zα
Región de rechazo
Figura 2.6:
Prueba: H0 : µ = µ0 vs H1 : µ > µ0
Estadı́stica de prueba: Z = X̄−µ
√0
σ/ n
Región de rechazo: Z ≥ zα , (prueba de cola superior)
en donde Z = X̄−µ
√ 0 .Error tipo I:
σ/ n
α
0 −µ
Error tipo II: Φ zα + µσ/ √ 1 , µ1 > µ0 .
n
Parte 2. ESTADÍSTICA 105
f (x)
x
zα
Región de rechazo
Figura 2.7:
106 2.7. Pruebas de hipótesis
Apéndice A
Ejercicios
107
108
a) A△(B△C) = (A△B)△C.
b) A△∅ = A.
c) A△Ω = Ac .
d ) A△A = ∅.
e) A△Ac = Ω.
16. Sean A = {x ∈ R : |x − 2| ≤ 4} y B = {x ∈ R : |x − 1| > 2}. Muestre
gráficamente los conjuntos A, B, Ac , B c , A ∩ B, A ∪ B, A − B, B − A y A△B.
17. Sean A = {x ∈ R : |x+1| ≤ 2} y B = {x ∈ R : x2 > 2}. Muestre gráficamente
los conjuntos A, B, Ac , B c , A ∩ B, A ∪ B, A − B, B − A y A△B.
18. Sean A = {(x, y) ∈ R2 : x2 + y 2 ≤ 1} y B = {(x, y) ∈ R2 : y > x2 }. Muestre
gráficamente los conjuntos Ac , B c , A ∩ B, A ∪ B, A − B, B − A y A△B.
19. Sean A = {(x, y) ∈ R2 : 2x2 + 3y 2 ≤ 6} y B = {(x, y) ∈ R2 : y > −x2 }.
Muestre gráficamente los conjuntos Ac , B c , A ∩ B, A ∪ B, A − B, B − A y
A△B.
20. Ellos. Si el 70 % de los hombres son feos, el 60 % son fuertes, y el 50 % son
formales. ¿Cuál es el mı́nimo y el máximo posibles de hombres que son feos,
fuertes y formales?
21. Ellas. Si el 90 % de las mujeres son bonitas, el 80 % son sensibles, y el 70 %
son sinceras. ¿Cuál es el mı́nimo y el máximo posibles de mujeres que son
bonitas, sensibles y sinceras?
Conjuntos ajenos
Conjunto potencia
26. ¿Quién es 2∅ ?
27. Demuestre que si A ⊆ B, entonces 2A ⊆ 2B .
Producto Cartesiano
Probabilidad
30. Compruebe que la definición de probabilidad clásica cumple con los tres axio-
mas de la probabilidad.
31. Compruebe que la definición de probabilidad frecuentista cumple con los tres
axiomas de la probabilidad.
32. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de
subconjuntos de Ω. Sea α un número real en el intervalo [0, 1]. Demuestre que
P = αP1 + (1 − α)P2 satisface los tres axiomas de la probabilidad.
33. Demuestre que P (∅) = 0, sin usar P (Ω) = 1.
34. Demuestre que P (B − A) = P (B) − P (A ∩ B), para cualesquiera eventos A
y B.
35. Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2.
36. Demuestre que P (A ∩ B) ≥ P (A) + P (B) − 1.
37. Demuestre que P (A△B) = P (A)+P (B)−2P (A∩B). Esta es la probabilidad
de que suceda exactamente uno de los eventos A y B.
38. Demuestre que P (Ac ∩ B c ) = 1 − P (A) − P (B) + P (A ∩ B).
39. Sean A y B eventos ajenos tales que P (A) =0.3 y P (B) =0.2. Encuentre
Apéndice A. Ejercicios 111
a) P (A ∪ B).
b) P (Ac ).
c) P (Ac ∩ B).
d ) P (A ∩ B c ).
e) P (A△B).
Análisis combinatorio
44. ¿De cuántas formas distintas pueden seis personas formarse en una fila lineal?
45. Una enciclopedia de 5 volúmenes es colocada en el librero de modo aleato-
rio. Demuestre que la probabilidad de que los volúmenes queden colocados
apropiadamente de derecha a izquierda o de izquierda a derecha es de 1/60.
46. ¿Cuántas diagonales se pueden trazar en un polı́gono convexo de n lados?
112
47. ¿De cuántas maneras diferentes pueden clasificarse los tres primeros lugares
de una carrera de 15 corredores ?
48. ¿Cuántos enteros positivos de a lo mas cinco dı́gitos son divisibles por 2?
¿Cuántos hay que empiecen con el dı́gito 1?
49. ¿Cuántos equipos de 3 personas se pueden formar de un grupo de 5 personas?
n n−k+1 n
50. Demuestre que = .
k k k−1
n n n−1
51. Demuestre que = .
k n−k k
n−1 k+1 n
52. Demuestre que = .
k n k+1
n n−1 n−1
53. Demuestre que = + . Esta es la fórmula para
k k k−1
construir el triángulo de Pascal.
54. Debido a un error, 50 tornillos defectuosos fueron mezclados con 200 torni-
llos en buen estado. Si se venden 20 tornillos tomados al azar, ¿Cuál es la
probabilidad de que k de ellos sean defectuosos? (0 ≤ k ≤ 20).
55. ¿Cuántos números binarios diferentes se pueden obtener al usar los siete dı́gi-
tos 1010101 ?
56. ¿Cuántas “palabras” diferentes se pueden formar con todos los caracteres
(incluyendo repeticiones) de la palabra AMAR?
57. Cumpleaños. Calcule la probabilidad de que en un conjunto de n personas,
al menos dos de ellas tengan la misma fecha de cumpleaños. Sugerencia:
Considere el complemento del evento de interés.
58. Encuentre el total de números enteros de cuatro dı́gitos sin repetición, toma-
dos del conjunto {0, 1, 2, . . . , 9} de tal manera que ningún número empiece
con 0. ¿Cuántos de ellos son pares y cuántos son impares?
59. En una clase de 25 estudiantes hay 15 mujeres y 10 hombres. a) ¿De cuántas
formas puede seleccionarse un comité de tres hombres y tres mujeres ? b)
¿De cuántas formas puede seleccionarse un comité de seis estudiantes? c)
¿De cuántas formas puede seleccionarse un comité de seis estudiantes todos
del mismo sexo?
Apéndice A. Ejercicios 113
e) 100 puntos?
69. ¿Cuántos subconjuntos podemos obtener de un conjunto de n elementos?
Escriba explı́citamente todos los subconjuntos del conjunto {a, b, c, d}.
70. Sea E el conjunto de vectores de Rn para los cuales alguna de sus coordenadas
es cero. ¿Cuántas regiones conexas tiene el conjunto Rn − E?
73. En una sala de cómputo hay seis computadoras numeradas del 1 al 6. ¿De
cuántas formas distintas pueden las seis computadoras estar siendo usadas o
no usadas?
74. ¿De cuántas formas posibles se puede ordenar el conjunto {1, 2, . . . , 2n + 1}
de tal forma que cada número impar ocupe una posición impar?
75. ¿De cuántas formas posibles se puede ordenar el conjunto {1, 2, . . . , 2n} de
tal forma que cada número par ocupe una posición par?
76. ¿Cuántas “palabras” diferentes podemos obtener usando todas las letras (in-
cluyendo repeticiones) de la palabra “manzana”?
77. ¿Cuántas “palabras” diferentes podemos obtener usando todas las sı́labas
(incluyendo repeticiones) de la palabra “cucurrucucú”?
78. Sea n ≥ 1 un entero. ¿Cuántas soluciones enteras no negativas tiene la ecua-
ción
a) x1 + x2 + · · · + xk = n ?
b) x1 + x2 + · · · + xk ≤ n ?
c) x1 + x2 + · · · + xk ≥ n ?
Apéndice A. Ejercicios 115
79. Sean n ≥ k dos enteros positivos. ¿Cuántos vectores con entradas enteras no
negativas (x1 , x2 , . . . , xk ) satisfacen las restricciones
a) P (A ∩ B). e) P (A ∪ B).
b) P (Ac ∩ B). f) P (Ac ∪ B).
c) P (A ∩ B c ). g) P (A ∪ B c ).
d) P (Ac ∩ B c ). h) P (Ac ∪ B c ).
83. Sea P una medida de probabilidad y B un evento con probabilidad positiva.
Demuestre que la probabilidad condicional P (·|B) satisface los tres axiomas
de la probabilidad.
84. Suponga que P (B) = P (A|B) = P (C|A ∩ B) = p. Demuestre que
P (A ∩ B ∩ C) = p3 .
P (A ∪ B) = 1 − P (Ac )P (B c ).
99. La urna de Polya. Suponga que en una urna se tienen b bolas blancas y r
bolas rojas. Un experimento aleatorio consiste en seleccionar una bola al azar
y regresarla a la urna junto con c bolas del mismo color. Sea Rn el evento
“Se selecciona una bola roja en la n-ésima extracción”. Compruebe que para
cada n ≥ 1,
r
P (Rn ) = .
r+b
100. Una persona toma al azar, con idéntica probabilidad, uno de los números
1, 2 o 3, y luego tira un dado equilibrado tantas veces como indica el número
escogido. Después suma el resultado de las tiradas del dado. ¿Cuál es la
probabilidad de que obtenga un total de 5?
Teorema de Bayes
101. En una urna se encuentran b bolas de color blanco y n bolas de color negro.
A un mismo tiempo se extraen k bolas al azar y resulta que todas son del
mismo color. ¿Cuál es la probabilidad de que las bolas sean de color negro?
118
102. Se escoge al azar un dı́gito binario para ser enviado a través de un canal de
transmisión. Se escoge el “0” con probabilidad 0.4, y se escoge el “1” con
probabilidad 0.6. El canal de comunicación es ruidoso de modo que un “0”
se distorsiona en un “1” con probabilidad 0.2, y un “1” se distorsiona en un
”0” con probabilidad 0.1. Encuentre la probabilidad de que
a) se reciba un “0”.
b) se reciba un “1”.
c) se haya enviado un “0” dado que se recibió un “0”.
d ) se haya enviado un “1” dado que se recibió un “1”.
Variables aleatorias
107. Encuentre el valor de la constante c para que f (x) sea una función de proba-
bilidad. Grafique esta función y calcule P (X ∈ {2, 3, 4}) y P (X < 3) en cada
caso.
c x si x = 1, 2, . . . , 10,
a) f (x) =
0 otro caso.
c x2 si x = 1, 2, . . . , 10,
b) f (x) =
0 otro caso.
108. Encuentre el valor de la constante c para que la siguiente función sea de
densidad. Grafique f (x) y calcule P (X ≥ π) y P (X ∈ [−π, 2π]).
c (1 + sen x) si x ∈ [0, 2π],
f (x) =
0 otro caso.
x -1 0 1
f (x) 0.2 0.3 0.5
112. Sea X discreta con función de probabilidad dada por la tabla que aparece
abajo. Grafique f (x). Calcule la función de probabilidad de las siguientes
variables aleatorias Y = X 2 , Z = |X| y W = 2X − 5. Grafique en cada caso.
x -2 -1 0 2 3 5
f (x) 0.1 0.15 0.4 0.1 0.15 0.1
113. Sea X discreta con función de densidad dada por la tabla que aparece abajo.
Encuentre el valor de c y grafique f (x). Calcule y grafique la función de
probabilidad de la variable Y = X 2 .
x -2 0 2
f (x) 0.1 c 0.1
116. Sea X una variable aleatoria con la función de distribución que aparece abajo.
¿Es X discreta o continua? Grafique F (x). Encuentre y grafique la correspon-
diente función de densidad f (x). Calcule además P (X = 1/2) y P (X > 1/2).
0√ si x < 0,
F (x) = x si 0 ≤ x < 1,
1 si x ≥ 1.
117. Una urna contiene cuatro bolas numeradas 1, 2, 3 y 4. Se extraen dos bolas
al azar, una a la vez y sin reemplazo. Sea X la variable aleatoria que denota
la suma de los números de las dos bolas seleccionadas.
a) Determine Ω.
b) Calcule y grafique f (x).
c) Calcule y grafique F (x).
d) Calcule P (X ≥ 6), P (3 < X ≤ 5) y P (X = 6).
118. Determine si la siguiente función es de probabilidad. Grafique la función y
justifique su respuesta.
1/6 si x = 0, 1,
f (x) = 2/3 si x = 2,
0 otro caso.
121. Sea X una variable aleatoria con la siguiente función de distribución. En-
cuentre y grafique f (x). Calcule P (0 ≤ X < 10).
1 − (1/2)x+1 si x = 0, 1, 2, 3, . . .
F (x) =
0 otro caso.
122. Sea X una variable aleatoria continua con la función de densidad que apa-
rece abajo. Encuentre el valor de la constante c y grafique la función f (x).
Encuentre y grafique además la función de distribución F (x).
2x/9 si 0 < x < c,
f (x) =
0 otro caso.
123. Sea a un número fijo. Construya una variable aleatoria X tal que E(X) = a.
124. Calcule la esperanza de la variable aleatoria discreta X cuya función de pro-
babilidad es
1/3 si x = 0, 1,
a) f (x) = 1/6 si x = 2, 3,
0 otro caso.
1/4 si x = −1, 1,
b) f (x) = 1/2 si x = 0,
0 otro caso.
125. Calcule la esperanza de la variable aleatoria continua X cuya función de
densidad es
a) f (x) = e−x , para x > 0.
b) f (x) = 6x(1 − x), para 0 < x < 1.
126. Sea X una variable aleatoria discreta con la función de probabilidad que
aparece abajo. Demuestre que f (x) es efectivamente una probabilidad de
densidad y que la esperanza de X no existe. Este es un ejemplo de una
variable aleatoria discreta que no tiene esperanza finita.
1
si x = 1, 2, 3, . . .
f (x) = x(x + 1)
0 otro caso.
Apéndice A. Ejercicios 123
127. Sea X una variable aleatoria continua con la función de densidad que aparece
abajo. Demuestre que esta función es efectivamente una función de densidad.
Compruebe además que la esperanza de X no existe. Este es un ejemplo de
una variable aleatoria continua que no tiene esperanza finita. Es una caso
particular de la distribución Cauchy.
1
f (x) = , para − ∞ < x < ∞.
π(1 + x2 )
b) E(Var(X)) = Var(X).
134. Sea X una variable aleatoria continua con función de densidad f (x) = 12 e−|x| ,
para −∞ < x < ∞. Demuestre que f (x) es efectivamente una función de
densidad y compruebe que
a) E(X) = 0.
b) E(X 2 ) = 2.
c) Var(X) = 2.
d ) E(X n ) = n! para n par.
135. Diga falso o verdadero. Justifique en cada caso.
a) E(−X) = −E(X).
b) Var(−X) = −Var(X).
c) E(Var(X)) = Var(E(X)).
136. Encuentre el error en la siguiente “demostración” de la afirmación de que la
varianza de cualquier variable aleatoria es cero.
0 = Var(0)
= Var(X + (−X))
= Var(X) + Var(−X)
= Var(X) + Var(X)
= 2 Var(X).
137. Sea X con distribución uniforme en el conjunto {1, . . . , n}. Demuestre que
a) E(X) = (n + 1)/2.
b) E(X 2 ) = (n + 1)(2n + 1)/6.
c) Var(X) = (n2 − 1)/12.
138. Se escogen completamente al azar y de manera independiente dos números
a y b dentro del conjunto {1, 2, . . . , 9, 10}. ¿Cuál es la probabilidad de que el
cociente a/b sea menor a uno?
Apéndice A. Ejercicios 125
Distribución Bernoulli
139. Sea X una variable aleatoria con distribución Ber(p). Verifique que f (x) es
efectivamente una función de densidad. Demuestre además que
a) E(X) = p.
b) E(X n ) = p, para n ≥ 1.
c) Var(X) = p(1 − p).
Distribución binomial
140. Sea X una variable aleatoria con distribución bin(n, p). Verifique que f (x) es
efectivamente una función de densidad.
141. Sea X una variable aleatoria con distribución bin(n, p). Demuestre que
a) E(X) = np.
b) Var(X) = np(1 − p).
142. Sea X una variable aleatoria con distribución bin(n, p) tal que E(X) = 4 y
Var(X) = 2. ¿Cuáles son los valores de n y p?
143. Sea X una variable aleatoria con distribución bin(n, p). Demuestre que la va-
riable Y = n− X tiene distribución bin(n, 1 − p). Proporcione una explicación
probabilı́sta de este resultado.
144. Sea X con distribución bin(n, p). Demuestre que para x = 0, 1, . . . , n − 1, se
cumple la siguiente fórmula. Esta expresión permite calcular las probabilida-
des de esta distribución de una forma iterativa.
p (n − x)
P (X = x + 1) = P (X = x).
(1 − p) (x + 1)
145. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que cada
cara caiga exactamente 3 veces.
146. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de que
ambas caras caigan el mismo número de veces.
147. Sea X una variable aleatoria con distribución bin(n, p). Demuestre que 0 ≤
Var(X) ≤ E(X).
126
148. Suponiendo que es igualmente probable que nazca un hombre (H) o una mujer
(M), y considerando la observación de 6 nacimientos. ¿Cuál de los siguientes
eventos es más probable que ocurra?
a) MHHMHM b) MMMMHM c) HMHMHM
Distribución geométrica
149. Sea X una variable aleatoria con distribución geo(p). Verifique que la función
f (x) es efectivamente una función de densidad.
150. Sea X una variable aleatoria con distribución geo(p). Demuestre que
a) E(X) = (1 − p)/p.
b) Var(X) = (1 − p)/p2 .
151. Sea X una variable aleatoria con distribución geo(p). Demuestre que para
cualesquiera a, b = 0, 1, 2, . . . se cumple la siguiente propiedad llamada de
pérdida de memoria: P (X ≥ a + b | X ≥ a) = P (X ≥ b).
152. Considere una urna con 3 bolas negras y 5 bolas blancas. Se escoge una
bola al azar, se registra su color, y después se regresa a la urna. ¿Cuántas
extracciones en promedio se necesitan realizar hasta obtener una bola negra
por primera vez?
Distribución Poisson
153. Sea X una variable aleatoria con distribución Poisson(λ). Verifique que f (x)
es efectivamente una función de densidad y demuestre que E(X) = λ, y
Var(X) = λ.
154. Sea X una variable aleatoria con distribución Poisson(λ). Demuestre que para
x = 0, 1, 2, . . . se cumple la siguiente fórmula. Esta expresión permite calcular
las probabilidades Poisson de una forma iterativa.
λ
P (X = x + 1) = P (X = x).
(x + 1)
155. Sea X una variable aleatoria con distribución Poisson(λ). Demuestre que la
probabilidad de que X tome un valor par es (1 + e−2λ )/2.
Apéndice A. Ejercicios 127
157. Sea X una variable aleatoria con distribución bin neg(r, p). Verifique que f (x)
es efectivamente una función de densidad.
158. Sea X una variable aleatoria con distribución bin neg(r, p). Demuestre que
E(X) = r(1 − p)/p, y Var(X) = r(1 − p)/p2 .
159. Sea X una variable aleatoria con distribución bin neg(r, p). Demuestre que
para x = 1, 2, . . . se cumple la siguiente fórmula. Esta expresión permite
calcular las probabilidades de esta distribución de una forma iterativa.
r+x−1
P (X = x) = (1 − p) P (X = x − 1).
x
Distribución hipergeométrica
160. Sea X con distribución hipergeo(N, K, n). Verifique que f (x) es efectivamente
una función de probabilidad.
161. Sea X con distribución unif(a, b). Verifique que f (x) es efectivamente una
función de densidad.
128
162. Sea X con distribución uniforme en el intervalo (a, b). Demuestre que
a) E(X) = (a + b)/2.
b) Var(X) = (b − a)2 /12.
163. Sea X con distribución uniforme en el intervalo (0, 1). Demuestre que el n-
ésimo momento de X es 1/(n + 1).
164. Sea X con distribución uniforme en el intervalo (a, b). Demuestre que
bn+1 − an+1
E(X n ) = .
(n + 1)(b − a)
165. Sea X una variable aleatoria con distribución uniforme en el intervalo (−1, 1).
Demuestre que
n 1/(n + 1) si n es par,
E(X ) =
0 si n es impar.
Distribución exponencial
168. Sea X una variable aleatoria con distribución exp(λ). Verifique que f (x) es
efectivamente una función de densidad.
169. Sea X con distribución exp(λ). Demuestre que
a) E(X) = 1/λ.
b) Var(X) = 1/λ2 .
170. Sea X una variable aleatoria con distribución exp(λ). Demuestre que para
cualesquiera números x, y ≥ 0 se cumple la igualdad que aparece abajo. La
distribución exponencial es la única distribución continua que satisface esta
propiedad llamada de pérdida de memoria.
P (X ≥ x + y | X ≥ x) = P (X ≥ y).
Apéndice A. Ejercicios 129
171. Sea X con distribución exp(λ). Demuestre que para cualesquiera números
x, y ≥ 0, F (x + y) = F (x) + F (y) − F (x) F (y).
172. Suponga que el tiempo que un usuario cualquiera permanece conectado a
un servidor en una red de cómputo se puede modelar como una variable
aleatoria con distribución exponencial con media igual a 10 minutos. De mil
usuarios, ¿Cuántos tienen un conexión superior a una hora? Calcule además
la probabilidad de que un usuario cualquiera
a) no permanezca conectado mas de 10 minutos.
b) permanezca conectado mas de 10 minutos pero menos de una hora.
Distribución gama
173. Sea X una variable aleatoria con distribución gama(n, λ). Verifique que f (x)
es efectivamente una función de densidad.
174. Sea X con distribución gama(n, λ). Demuestre que
a) E(X) = n/λ.
b) Var(X) = n/λ2 .
c) E(X m ) = Γ(m + n)/( λm Γ(n) ).
175. Demuestre las siguientes propiedades de la función gama.
a) Γ(n + 1) = n Γ(n).
b) Γ(2) = Γ(1) = 1.
c) Γ(n + 1) = n! si n es entero.
√
d ) Γ(1/2) = π.
Distribución beta
176. Sea X con distribución beta(a, b). Verifique que f (x) es efectivamente una
función de densidad.
177. Sea X con distribución beta(a, b). Demuestre que
a) E(X) = a/(a + b).
130
182. Sea X con distribución beta(a, b). Demuestre que cuando a = 1 y b > 0, la
función de distribución de X toma la forma
0 si x ≤ 0,
F (x) = 1 − (1 − x)b si 0 < x < 1,
1 si x ≥ 1.
183. Sea X con distribución beta(a, b). Demuestre que para cualquier entero n ≥ 0,
E(X n ) = B(a + n, b)/B(a, b).
Apéndice A. Ejercicios 131
Distribución normal
184. Sea X con distribución N(µ, σ 2 ). Verifique que f (x) es efectivamente una
función de densidad.
185. Sea X con distribución N(µ, σ 2 ). Demuestre que E(X) = µ, y Var(X) = σ 2 .
186. Sea X con distribución N(µ, σ 2 ). Demuestre que la variable Z = (X − µ)/σ
tiene distribución normal estándar. Recı́procamente, demuestre que si Z tiene
distribución normal estándar, y σ > 0, entonces la variable X = µ + σZ tiene
distribución N(µ, σ 2 ).
187. Sea X con distribución N(10, 25). Calcule
a) P (X ≥ 10).
b) P (X < 0).
c) P (0 < X ≤ 10).
d ) P (X ≥ 20).
e) P (−20 < X ≤ 10).
188. Sea X con distribución N(0, 100). Calcule
a) P (X ≤ 10).
b) P (X > 0).
c) P (0 < X ≤ 40).
d ) P (X ≥ 30).
e) P (−10 < X ≤ 10).
189. Encuentre x tal que
a) Φ(x) = 0.8666 . b) 1 − Φ(x) = 0.9154 .
190. Sea X una variable aleatoria con distribución N(µ, σ 2 ). Demuestre que la
variable Y = aX + b, con a 6= 0, también tiene una distribución normal.
Encuentre los parámetros correspondientes.
191. Sea X una variable aleatoria con distribución N(µ, σ 2 ). Demuestre que la va-
riable Y = −X también tiene una distribución normal. Encuentre los paráme-
tros correspondientes.
132
192. Sea X una variable aleatoria con distribución N(0, 1). Demuestre que X 2
tiene√una distribución
√ χ2 (1). Sugerencia: Para x > 0, FX 2 (x)= P (X 2 ≤ x)=
P (− x ≤ X ≤ x).
193. Sea X una variable aleatoria con distribución normal estándar. Encuentre la
función de densidad de Y = |X|.
194. Una máquina automática despachadora de refresco en un restaurant está ajus-
tada para llenar vasos de 300 ml en promedio. Debido a cuestiones mecánicas,
el llenado de los vasos no es enteramente exacto y hay pequeñas fluctuaciones
en el llenado. El fabricante de la máquina sabe que el llenado de los vasos
se puede modelar como una v.a. normal con media de 300 ml. y desviación
estándar σ = 10 ml.
a) ¿Qué fracción de los vasos serán servidos con más de 310 mililitros?
b) ¿Cuál es la probabilidad de que un vaso sea servido entre 290 y 305
mililitros?
c) Si el restaurant utiliza vasos de 320 ml. ¿qué porcentaje de ellos se
derramarán?
d ) Si los clientes reclaman por vasos servidos con 270 ml. o menos, de mil
clientes, ¿cuántos de ellos reclamarán?
Distribución ji cuadrada
Distribución t
198. Sea X con distribución t(n). Verifique que f (x) es efectivamente una función
de densidad.
Apéndice A. Ejercicios 133
199. Sea X con distribución t(n). Demuestre que E(X) = 0, y Var(X) = n/(n−2),
para n > 2.
Vectores aleatorios
200. Sea (X, Y ) un vector aleatorio discreto con función de densidad f (x, y) dada
por la siguiente tabla
x\y -1 0
1 .3 .5
2 .05 .15
a) Grafique f (x, y) y demuestre que efectivamente se trata de una función
de densidad.
b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que
ambas son efectivamente funciones de densidad.
c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique
que ambas son efectivamente funciones de distribución.
d ) ¿Son X y Y independientes?
201. Sea (X, Y ) un vector aleatorio discreto con función de densidad f (x, y) dada
por la siguiente tabla
x\y 0 1
1 .2 0
2 .7 .1
a) Grafique f (x, y) y demuestre que efectivamente se trata de una función
de densidad.
b) Calcule y grafique las densidades marginales f (x) y f (y). Verifique que
ambas son efectivamente funciones de densidad.
c) Calcule y grafique las distribuciones marginales F (x) y F (y). Verifique
que ambas son efectivamente funciones de distribución.
d ) ¿Son X y Y independientes?
202. Sea (X, Y ) un vector aleatorio continuo con distribución uniforme en el cua-
drado (−1, 1) × (−1, 1).
a) Grafique f (x, y) y demuestre que efectivamente se trata de una función
de densidad.
134
Estadı́stica descriptiva
205. Calcule la media, moda, mediana, varianza, desviación estándar y rango del
siguiente conjunto de datos: 4, 2, 0, 9, 4, 2, −1, 1, −4, 2.
206. Pregunte a diez personas sus estaturas. Registre todos estos datos y calcule
la media, moda, mediana, varianza, desviación estándar y rango.
207. Mediante el uso de una calculadora genere diez números al azar dentro del in-
tervalo unitario (0, 1). Escriba estos datos y calcule la media, moda, mediana,
varianza, desviación estándar y rango.
n
X
208. Demuestre que (xi − x̄) = 0.
i=1
n
X n
X
2
209. Demuestre que (xi − x̄) = x2i − nx̄2 .
i=1 i=1
n n
1 X 2 1 X 2
210. Demuestre que s2 = [ xi − ( xi ) ].
n − 1 i=1 n i=1
n
X
211. Encuentre el valor de c que minimiza la función x̄(c) = (xi − c)2 .
i=1
ma.
Intervalo de clase Frecuencia
0≤x<5 12
5 ≤ x < 10 23
10 ≤ x < 15 10
15 ≤ x < 20 14
25 ≤ x < 30 6
30 ≤ x < 35 10
35 ≤ x < 40 5
214. —
Estimación puntual
215. Sean θ̂1 y θ̂2 dos estimadores insesgados para el parámetro θ, y sea α una
constante. Demuestre que θ̂ = αθ̂1 + (1 − α)θ̂2 es también un estimador
insesgado para θ,
216. Sea X1 , . . . , Xn una m.a. de una población con media conocida µ y varianza σ 2
desconocida. Demuestre que la siguiente estadı́stica es un estimador insesgado
para σ 2 ,
n
1X
σ̂ 2 = (Xi − µ)2 .
n i=1
217. Sea X1 , . . . , Xn una m.a. de una población con media desconocida y varian-
za σ 2 desconocida. Demuestre que la siguiente estadı́stica es un estimador
insesgado para σ 2 ,
n
1 X
S2 = (Xi − X̄)2 .
n − 1 i=1
218. Sea X1 , . . . , Xn una m.a. de una población con media desconocida y varianza
finita σ 2 desconocida. Demuestre que la siguiente estadı́stica es un estimador
insesgado para σ 2 ,
n−1
1 X
σ̂ 2 = (Xi+1 − Xi )2 .
2(n − 1) i=1
Apéndice A. Ejercicios 137
219. Sea X1 , . . . , Xn una m.a. de una población con media µ y varianza σ 2 des-
conocidas. P Recuerde que la varianza muestral S 2 se ha definido como sigue
S = n−1 ni=1 (Xi − X̄)2 . Demuestre que S no es un estimador insesgado
2 1
(n−1) 2
para σ. Modifique S para que sea insesgado. Sugerencia: σ2 S ∼ χ2 (n−1).
Método de momentos
225. Se sabe que la vida en horas de un foco de 100 watts de cierta marca tiene
una distribución aproximada normal con desviación estándar σ = 30 horas.
Se toma una muestra al azar de 50 focos y resultó que la vida media fue de
1550 horas. Construya un intervalo de confianza del 95 % para el verdadero
promedio de vida de estos focos.
138
Pruebas de hipótesis
227. Se cree que la estatura de cierta población humana sigue una distribución
normal con media de 1.70 metros. Realice la prueba de hipótesis H0 : µ =
1.70 vs H1 : µ 6= 1.70, con el siguiente conjunto de datos: 1.65, 1.75, 1.63,
1.81, 1.74, 1.59, 1.73, 1.66, 1.65, 1.83, 1.77, 1.74, 1.64, 1.69, 1.72, 1.66, 1.55,
1.60, 1.62. Use un nivel de significancia del 10 %, y suponga σ = 0.10 .
228. Las mediciones del número de cigarros fumados al dı́a por un grupo de diez fu-
madores es el siguiente: 5, 10, 3, 4, 5, 8, 20, 4, 1, 10. Realice la prueba de hipóte-
sis H0 : µ = 10 vs H1 : µ < 10, suponiendo que los datos provienen de una
muestra tomada al azar de una población normal con σ = 1.2 . Use un nivel
de significancia del 5 %.
229. Considere cualquiera de las tres pruebas de hipótesis para la media µ de
una población normal con σ 2 conocida. Demuestre que en cualquier caso la
probabilidad de cometer el error tipo II tiende a cero cuando el tamaño de la
muestra n tiende a infinito.
Apéndice B
Soluciones
139
140
A B
C
Ω
A
−2 0 6
B
−1 0 3
Figura B.2:
142
A
−3 0 1
B √ √
− 2 0 2
Figura B.3:
18. Los conjuntos A y B son los que se muestra en la Figura B.4 (a). Allı́ pueden
identificarse gráficamente las operaciones que se solicitan.
B
B
(a) (b)
Figura B.4:
19. Los conjuntos A y B son los que se muestran en la Figura B.4 (b). Allı́ pueden
identificarse gráficamente las operaciones que se solicitan.
20. El máximo es 50 % y el mı́nimo es 0 %.
21. El máximo es 70 % y el mı́nimo es 40 %.
Apéndice B. Soluciones 143
Conjuntos ajenos
22. A ∩ (B − A) = A ∩ (B ∩ Ac ) = ∅.
23. No son ajenos, tienen un único punto en común que es (0, 1).
24. A1 ∩ B ⊆ A ∩ B = ∅.
Conjunto potencia
26. 2∅ = {∅}.
27. Sea A1 ∈ 2A , entonces A1 ⊆ A ⊆ B. Por lo tanto A1 ⊆ B y en consecuencia
A1 ∈ 2B .
Producto Cartesiano
Probabilidad
Análisis combinatorio
44. 6! = 720.
Apéndice B. Soluciones 145
45. El total de casos posibles es 5! = 120. Los casos favorables son dos: 12345 y
54321. Por lo tanto la probabilidad buscada es 2/120 = 1/60.
46. n2 − n = n(n − 1)/2.
47. 15 · 14 · 13 = 2730.
48. Un entero positivo de a lo sumo cinco dı́gitos que es divisible por 2 es de la
forma xxxxy en donde x puede ser cualquiera de 0, 1, . . . , 9 y y puede ser
0, 2, 4, 6, 8. Por lo tanto el total es 10 · 10 · 10 · 10 · 5 = 50000, excepto que
debemos omitir el entero 00000. Si empiezan con el número 1, entonces son
de la forma 1xxxy, y entonces la respuesta es 10 · 10 · 10 · 5 = 5000 y esta vez
no hay necesidad de omitir ninguno de ellos.
5
49. = 5!/3!2! = 10.
3
50. Simplifique el lado derecho.
51. Simplifique el lado derecho.
52. Simplifique el lado derecho.
53. Simplifique el lado derecho.
200 250
54. 50
k 20−k / 20 .
55. Considerando inicial y artificialmente que los siete dı́gitos son todos distintos,
la respuesta preliminar es 7! = 5040. Como los cuatro dı́gitos 1 son idénticos,
cualquier permutación entre ellos produce el mismo número y por lo tanto
debemos dividir el resultado preliminar por 4! Análogamente con los tres
dı́gitos 0. La respuesta final es 7!/4! 3! = 5040/(24 · 6) = 35.
56. Razonando como en el ejercicio anterior, la respuesta es 4!/(2! 1! 1!) = 6.
57. Considerando que cada año tiene 365 dias, la respuesta es 1−365·364 · · ·(365−
n + 1)/365n.
58. El total es 4536. No es cierto que la mitad de ellos sean pares y la otra mitad
impares. Existen 2296 pares y 2240 impares.
59. —
60. —
146
61. —
62. —
63. —
64. —
65. —
66. —
67. —
68. —
69. Se pueden obtener un total de 2n subconjuntos distintos de un conjunto de
cardinalidad n. Los 16 subconjuntos de {a, b, c, d} son: ∅, {a}, {b}, {c}, {d},
{a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}, {a, b, c}, {b, c, d}, {a, c, d}, {a, b, d},
{a, b, c, d}.
70. 2n . El conjunto E corresponde al conjunto de los n ejes coordenados, o uniones
de éstos.
71. —
72. —
73. 26 .
74. n! (n + 1)!
75. (n!)2 .
76. 7!/(3! 2!).
77. 11!/(5! 4! 2!).
78. Considere que se tienen k casillas numeradas 1, 2, . . . , k en donde se desean
colocar n bolas sin ninguna restricción en el número de bolas que caben en
cada casilla. De esta forma, el número de bolas en la casilla 1 es el valor de
x1 , lo mismo
paraPlas casillas 2, 3, . . . , k. Las respuestas son entonces
n
a) n+k−1n . b) m=0
m+k−1
m . c) Infinito.
Apéndice B. Soluciones 147
81. a) Como B = (Ac ∩B)∪(A∩B), se tiene que P (Ac ∩B) = P (B)−P (A∩B) =
P (B) − P (A)P (B) = P (B)(1 − P (A)) = P (B)P (Ac ). b) Análogo al primer
inciso. c) P (Ac ∩ B c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) =
1 − P (A) − P (B) + P (A)P (B) = (1 − P (A))(1 − P (B)) = P (Ac )P (B c ).
82. a) P (A ∩ B) = 0.05 b) P (Ac ∩ B) = 0.45 c) P (A ∩ B c ) = 0.05 d)
c
P (A ∪ B) = 0.55 e) P (A ∪ B) = 0.95 f) P (A ∪ B c ) = 0.55.
83. a) P (Ω|B) = P (B)/P (B) = 1 b) P (A|B) ≥ 0 c) Sean A1 y A2 ajenos.
Entonces A1 ∩ B y A2 ∩ B también son ajenos. Por lo tanto P (A1 ∪ A2 |B) =
P ((A1 ∪A2 )∩B)/P (B) = P ((A1 ∩B)∪(A2 ∩B))/P (B) = P (A1 ∩B)/P (B)+
P (A2 ∩ B)/P (B) = P (A1 |B) + P (A2 |B).
84. P (A ∩ B ∩ C) = P (C|A ∩ B)P (A|B)P (B) = ppp = p3 .
85. a) Falso. Con A = ∅ se obtiene P (A|B) = 0. b) Falso. Tómese A = Ω y B
tal que 0 < P (B) < 1. Entonces P (A|B) = 1 mientras que P (B|A) = P (B) <
1. c) Falso. Tómese A = B con 0 < P (A) < 1. Entonces P (A|B) = 1
mientras que P (A) < 1.
86. a) Verdadero y ello es consecuencia del hecho de que P (·|B) es una medida
de probabilidad. Alternativamente P (A|B) + P (Ac |B) = P (A ∩ B)/P (B) +
P (Ac ∩ B)/P (B) = P ((A ∩ B) ∪ (Ac ∩ B))/P (B) = P ((A ∪ Ac ) ∩ B)/P (B) =
P (B)/P (B) = 1. b) Falso. Tómese A = Ω. El lado izquierdo es 2 mientras
que el lado izquierdo es 1. c) Cierto. P (A|A∩B) = P (A∩B)/P (A∩B) = 1.
El cálculo es idéntico para P (B|A ∩ B).
87. Todos los incisos son ciertos. Solo es cuestión de escribir la definición de cada
probabilidad condicional.
88. a) Falso. Tómese por ejemplo A = B1 ∪ B2 . Entonces el lado izquierdo es uno
mientras que el lado derecho es dos. b) Cierto. P (A1 ∪ A2 |B) = P ((A1 ∪
148
A2 )∩B)/P (B) = P (A1 ∩B)/P (B)+P (A2 ∩B)/P (B) = P (A1 |B)+P (A2 |B).
c) Falso. Tómese B1 = B2 . El lado derecho es el cuadrado del lado izquierdo.
d) Falso. Tómese A1 = A2 . El lado derecho es el cuadrado del lado izquierdo.
89. a) P (∅∩∅) = P (∅) = 0 = P (∅)P (∅). b) P (Ω∩Ω) = P (Ω) = 1 = P (Ω)P (Ω).
90. a) Falso. Tómese B = Ω. Entonces A y B son independientes pero no son
ajenos. b) Falso. Considere el experimento de lanzar una moneda honesta,
y sean A y B los eventos de que caiga una cara y la otra respectivamente.
Entonces claramente A y B son ajenos pero no son independientes.
91. P (A ∩ ∅) = P (∅) = 0 = P (A)P (∅).
92. P (A ∩ Ω) = P (A) = P (A)P (Ω).
93. P (A ∪ B) = 1 − P (Ac ∩ B c ) = 1 − P (Ac )P (B c ) pues Ac y B c también son
independientes. Alternativamente desarrolle P (A ∪ B) y factorice adecuada-
mente.
94. a) Cierto pues la definición es simétrica respecto de los eventos A y B. b)
Falso en general. Tómese A tal que 0 < P (A) < 1. Entonces P (A∩A) = P (A)
mientras que P (A)P (A) < P (A). Cuando P (A) es cero o uno la propiedad
es válida. c) Falso. Tómese Ω = {1, 2, 3, 4} equiprobable con A = {1, 2},
B = {2, 3} y C = {3, 4}. Entonces se cumple P (A ∩ B) = 1/4 = P (A)P (B) y
P (B∩C) = 1/4 = P (B)P (C), pero P (A∩C) = 0 distinto a P (A)P (C) = 1/4.
95. La probabilidad de que no ocurra ninguno de los eventos es P (Ac ∩ B c ), que
por la independencia es igual a P (Ac )P (B c ) = (1 − p1 )(1 − p2 ).
96. Como A y B son independientes y ajenos, 0 = P (A ∩ B) = P (A)P (B). Para
que este producto se anule forzosamente alguno de los factores tiene que ser
cero.
97. a) ∅ = (0, 0), (0, 1/2). b) (0, 1/2), (1/4, 3/4). c) (0, 1/2), (1/2, 1).
d) (0, 1/2), (0, 1/2).
n
n
98. El total de subconjuntos de cardinal 1,n2,
. . . , n es nrespectivamente
1, 2,
n
. . . , n . De modo que la respuesta es 1 + · · · + n = 2n − n − 1.
Apéndice B. Soluciones 149
99. Se puede usar el método de inducción sobre n. Claramente P (R1 ) = r/(r +b).
Suponga entonces válida la igualdad P (Rn ) = r/(r + b). Se condiciona la
probabilidad del evento Rn+1 dado el resultado de la primera extracción, y
en tal situación puede considerarse que la configuración inicial de la urna
cambia, de modo que el evento Rn+1 se refiere ahora a la n-ésima extracción
y allı́ es donde se usa la hipótesis de inducción. Entonces por el teorema de
probabilidad total,
P (Rn+1 ) = P (Rn+1 |R1 )P (R1 ) + P (Rn+1 |R1c )P (R1c )
r+c r r b
= × + ×
r+b+c r+b r+b+c r+c
r
= .
r+b
100. Sean N1 , N2 y N3 los eventos correspondientes a escoger los números 1, 2 y
3 respectivamente. Sea A el evento “obtener 5 al lanzar el dado”. Entonces
P (A) = P (A|N1 )P (N1 ) + P (A|N2 )P (N2 ) + P (A|N3 )P (N3 ) = 11/108.
Teorema de Bayes
101. Sea A el evento cuando todas las bolas son del mismo color, y N cuando
enparticular
n n
b
son todas negras. Entonces P (N |A) = P (A|N )P (N )/P (A) =
k /[ k + k ].
102. Sea R0 el evento “se recibe un cero”, y E0 el evento “se envı́a un cero”.
Análogamente se definen los eventos R1 y E1 . Entonces
a) P (R0 ) = P (R0 |E0 )P (E0 ) + P (R0 |E1 )P (E1 ) = 0.8 · 0.4 + 0.1 · 0.6 = 0.38.
b) P (R1 ) = P (R1 |E0 )P (E0 ) + P (R1 |E1 )P (E1 ) = 0.2 · 0.4 + 0.9 · 0.6 = 0.62.
c) P (E0 |R0 ) = P (R0 |E0 )P (E0 )/P (R0 ) = 0.8 · 0.4/0.38 = 0.84.
d) P (E1 |R1 ) = P (R1 |E1 )P (E1 )/P (R1 ) = 0.9 · 0.6/0.62 = 0.87.
Variables aleatorias
x 0 1 4 9 25
f (x) 0.4 0.15 0.2 0.15 0.1
La de |X| es
x 0 1 2 3 5
f (x) 0.4 0.15 0.2 0.15 0.1
Y la de 2X − 5 es
x -9 -7 -5 -1 1 5
f (x) 0.1 0.15 0.4 0.1 0.15 0.1
Apéndice B. Soluciones 151
x 0 4
f (x) 0.8 0.2
114. a) k = 2. b) F (x) = (x + 2)/10 para x ∈ [−2, 8], cero antes, uno después.
c) P (−1 ≤ X ≤ 3) = 2/5, P (X ≥ 2) = 3/5, P (X ≤ 0) = 1/5. d) m = 5/2.
115. Se trata de una variable aleatoria discreta cuya función de probabilidad es
f (1) = 1/3 y f (2) = 2/3. Por lo tanto P (X = 2) = 2/3, y P (1 < X < 2) = 0.
√
116. La función de densidad es f (x) = 1/(2 x),√ para x ∈ (0, 1). P (X = 1/2) = 0
y P (X > 1/2) = F (1) − F (1/2) = 1 − 1/ 2.
117. a) Ω = {(1, 2), (1, 3), (1, 4), (2, 1), (2, 3), (2, 4), (3, 1), (3, 2), (3, 4), (4, 1), (4, 2)(4, 3)}.
b) La función de probabilidad de X es
x 3 4 5 6 7
f (x) 2/12 2/12 4/12 2/12 2/12
127. Para demostrar que esta función es de densidad es necesario recordar que la
derivada
R∞ de la función
R h(x) = arctan x es h′ (x) = 1/(1 + x2 ). Por lo tanto
1 1 ∞ d 1 1
−∞ π(1+x2 )
dx = π −∞ dx arctan x dx = π arctan x|∞ −∞ = π (π/2 − (−π/2)) =
1. La esperanza no Rexiste por que la integral
R resultante noR es absoluta-
∞ 1 2 ∞ x 2 ∞ x
mente convergente: −∞ |x| π(1+x 2 ) dx = π 0 1+x 2 dx ≥ π 1 1+x2 dx ≥
R
2 ∞ x
R
1 ∞ 1
π 1 x2 +x2 dx = π 1 x dx = ∞.
128. a) Cierto, la constante cero cumple tal condición. b) Falso, las siguientes
dos distribuciones son distintas y ambas tienen esperanza cero.
x -1 0 1
f1 (x) 1/2 0 1/2
f2 (x) 1/3 1/3 1/3
P∞ y
= y=1 (1/2) = 1. Para la varianza encontraremos primero el segundo
momento,
P∞ 2 y para elloPusaremos la identidad x2P= x(x + 1) − x. E(X 2 ) =
x+1 ∞ x+1 ∞
x=1 x (1/2) = x=0 x(x + 1)(1/2) − x=0 x(1/2)x+1 . La segun-
da suma acaba de ser Pxcalculada y vale uno. Para la primera suma escri-
ba x(x + 1) como 2 y=1 y. Intercambiando ahora el orden de las sumas
P∞ P∞ P∞
se llega a E(X 2 ) = 2 y=1 y x=y (1/2)x+1 − 1 = 2 y=1 y(1/2)y − 1 =
P
22 ∞ y=1 y(1/2)
y+1
− 1 = 4 − 1 = 3. Por lo tanto la varianza es Var(X) =
2 2
E(X ) − E (X) = 3 − 1 = 2.
133. Ambos incisos son ciertos pues tanto E(X) como Var(X) son constantes.
R∞
134. La función es de densidad pues es no negativa y la integral −∞ 12 e−|x| dx
R∞ R∞
puede ser escrita como 2 0 21 e−x dx = 0 e−x dx = 1.
R ∞ 1 −|x|
a) La esperanza de X es −∞ x 2 e dx. Separando la parte positiva y la
R ∞ 1 −x R0
negativa se obtiene 0 x 2 e dx + −∞ x 12 ex dx. Mediante el cambio de
variable y = −x se comprueba que la segunda integral es el negativo de la
primera, se obtiene que la esperanza
R∞ es cero.
b) El segundo momento es −∞ x2 21 e−|x| dx. Nuevamente separando la parte
R∞ R0
positiva de la negativa se obtiene 0 x2 12 e−x dx + −∞ x2 21 ex dx. Ahora al
hacer el cambio de variable y = −x en la segunda integral se obtiene que es
idéntica Ra la primera integral. Por lo tanto se obtiene el doble de la primera,
∞
es decir, 0 x2 e−x dx. Usando integración por partes puede comprobarse que
esta integral vale 2.
c) Por los cálculos anteriores
R ∞Var(X) = E(X 2 ) − E 2 (X) = 2.
n 1 −|x|
d) El n-ésimo momento es −∞ x 2 e dx. Nuevamente separando la parte
R∞ R0
positiva de la negativa se obtiene 0 xn 12 e−x dx + −∞ xn 12 ex dx. Al ha-
R ∞ de variable y = −x en la segunda integral se obtiene que es
cer el cambio
(−1)n+2 0 xn 12 e−x dx. Cuando n es impar se trata del negativo de la pri-
mera integral, de modo que la suma es cero. Cuando
R∞ n es par, es idéntica a la
primera integral, y entonces el resultado es 0 xn e−x dx. Aplicando repeti-
das veces el método de integración por partes se comprueba que esta integral
vale n!
135. a) Cierto pues la esperanza es lineal. b) Falso pues en general Var(cX) =
c2 Var(X). c) Falso. El lado izquierdo es Var(X) y el lado derecho es siempre
cero.
136. La tercera igualdad no es correcta pues la varianza en general no es lineal.
154
n n
X 1 1X 1 n(n + 1)
137. a) E(X) = i = i= = (n + 1)/2.
i=1
n n i=1 n 2
n n
X 1 1X 2 1 n(n + 1)(2n + 1)
b) E(X 2 ) = i2 = i = = (n + 1)(2n + 1)/6.
i=1
n n i=1 n 6
(n + 1)(2n + 1) (n + 1)2
c) Var(X) = E(X 2 ) − E 2 (X) = − = (n2 − 1)/12.
6 4
138. 45/100.
Distribución Bernoulli
Distribución binomial
Pn
140. P
Claramente
f (x) ≥ 0. Además por el teorema del binomio x=0 f (x) =
n n x n−x
x=0 x p (1 − p) = (p + 1 − p)n = 1.
P
141. La esperanza es E(X) = nx=0 x nx px (1 − p)n−x . La suma puede empezar
desde uno. Factorizando np y escribiendo n−x = (n−1)−(x−1) se encuentra
la expresión
n
X (n − 1)!
np px−1 (1 − p)(n−1)−(x−1) ,
x=1
((n − 1) − (x − 1))!(x − 1)!
Pn x−1
lo cual es np x=1 n−1x−1 p (1 − p)(n−1)−(x−1) . Haciendo el cambio de va-
riable y = x − 1 en la suma, ésta se convierte en la suma completa de la
distribución bin(n − 1, p) y vale uno. El resultado es entonces np. Para la
varianza se usa la misma técnica. Se calcula primero el segundo momento
Apéndice B. Soluciones 155
La segunda suma acaba de ser calculada y vale np. La primera suma pue-
de empezar desde 2, y procediendo como en el caso de la esperanza puede
escribirse como
n
X (n − 2)!
n(n − 1)p2 px−2 (1 − p)(n−2)−(x−2) ,
x=2
((n − 2) − (x − 2))!(x − 2)!
Pn x−2
lo cual es n(n − 1)p2 x=2 n−2 x−2 p (1 − p)(n−2)−(x−2) . Haciendo el cambio
de variable y = x − 2 en la suma, ésta se convierte en la suma completa
de la distribución bin(n − 2, p) y vale uno. El segundo momento es entonces
n(n − 1)p2 + np. Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = n(n − 1)p2 + np −
n2 p2 = np(1 − p).
142. n = 8 y p = 1/2.
143. P (Y = x) = P (n − X = x) = P (X = n − x). Al substituir la función de
probabilidad de X resulta que Y tiene distribución binomial con el mismo
número de ensayos n, pero la probabilidad de éxito es ahora 1−p. Si X cuenta
el número de éxitos en n ensayos Bernoulli, entonces Y cuenta el número de
fracasos.
144. Desarrolle el lado derecho.
145. 63 (1/2)6 .
146. 2n 2n
n (1/2) .
147. Recuerde que Var(X) = npq y E(X) = np. Entonces efectivamente npq ≤ np
pues q ≤ 1.
148. Los tres eventos tienen la misma probabilidad de ocurrir, cada uno de ellos
tiene probabilidad 1/26 .
156
Distribución geométrica
P∞ P∞
149. f (x) ≥ 0. Además x=0 f (x) = x=0 p(1 − p)x = p(1/p) = 1.
P∞ x
150. P
Usaremos
P resultados de sumas geométricas. E(X) = x=0 xp(1 − p) =
∞ x x
x=1 y=1 p(1 − p) . Intercambiando el orden de las sumas se encuentra la
P P∞ P∞
expresión ∞ y=1
x
x=y p(1 − p) =
y
y=1 (1 − p) = (1 − p)/p. Para la varianza
encontraremos primero el segundoP∞ momento, y paraP ello usaremos la identidad
2 2 2 x ∞ x
x
P∞ = x(x + 1) − x. E(X ) = x=1 x p(1 − p) = x=0 x(x + 1)p(1 − p) −
x
x=0 xp(1 − p) . La segunda suma acaba deP ser calculada y vale (1-p)/p.
x
Para la primera suma escriba x(x + 1) como 2 y=1 y. Intercambiando ahora
P ∞ P∞
el orden de las sumas se llega a E(X 2 ) = 2 y=1 y x=y p(1 − p)x − (1 − p)/p
P∞ P ∞
= 2 y=1 y(1 − p)y − (1 − p)/p = p2 y=1 yp(1 − p)y − (1 − p)/p = 2(1 −
p)/p2 − (1 − p)/p. Por lo tanto la varianza es Var(X) = E(X 2 ) − E 2 (X)
= 2(1 − p)/p2 − (1 − p)/p − (1 − p)2 /p2 = (1 − p)/p2 .
P∞
151. P (X ≥ a + b | X ≥ a) = P (X ≥ a + b)/P (X ≥ a) = p x=a+b (1 −
P ∞
p)x /(p x=a (1 − p)x ) = (1 − p)a+b /(1 − p)a = (1 − p)b = P (X ≥ b).
152. 8/3=2.66 extracciones.
Distribución Poisson
P∞ P∞ −λ λx
153. La función f (x) es no negativa y es tal que x=0 f (x) = x=0 e x!
−λ
P∞ λx −λ λ
= e x=0 x! = e e = 1. Para la esperanza tenemos que E(X) =
P∞ −λ λx
P∞ −λ λx P∞ −λ λx−1
x=0 x e x! = x=1 e (x−1)! = λ x=1 e (x−1)! = λ. Usando la igual-
2
dad x = x(x − 1) + x, puede encontrarse que el segundo momento es
E(X 2 ) = λ2 + λ. Por lo tanto Var(X)= E(X 2 ) − E 2 (X)= λ2 + λ − λ2 = λ.
154. Desarrolle el lado derecho.
155. Sume las series eλ = 1 + λ + λ2 /2! + λ3 /3! + · · · , y e−λ = 1 − λ + λ2 /2! −
λ3 /3! + · · ·
156. a) 0.323 b) 0.593 c) Una o dos computadoras descompuestas tienen pro-
babilidad máxima 0.2706.
Apéndice B. Soluciones 157
Distribución hipergeométrica
Pr
n m
n+m
160. El resultado se sigue de la fórmula k=0 k r−k = r .
R1 1
1
165. E(X n ) = −1 xn 1/2 dx = 2(n+1) xn+1 −1 . Si n es impar, entonces n + 1 es
par y la integral se anula. Si n es par, entonces n + 1 es impar y la integral
es 1/(n + 1).
166. X toma valores en (0, 1) y Y toma valores en (−5, 5). Para cualquier y ∈
(−5, 5), FY (y) = P (Y ≤ y)= P (10X − 5 ≤ y)= P (X ≤ (y + 5)/10)=
FX ((y + 5)/10). Derivando fY (y) = fX ((y + 5)/10) 1/10. Pero fX ((y + 5)/10)
vale uno sólo cuando 0 < (y + 5)/10 < 1, es decir, si −5 < y < 5. Por lo
tanto, Y tiene distribución unif(−5, 5).
167. La mediana en este caso es única y vale m = (a + b)/2 pues cumple la
condición P (X ≤ m) = P (X ≥ m) = 1/2. Vea un ejercicio anterior para la
demostración de que la media es también (a + b)/2.
Distribución exponencial
R∞
168. f (x) ≥ 0 y 0 λ e−λx dx = −e−λx |∞ 0 = 1.
R∞
169. E(X) = 0 x λ e−λx dx. Usando integración por partes con u = x y dv =
R∞ R∞
λ e−λx dx, se obtiene E(X) = 0 e−λx dx = (1/λ) 0 λ e−λx dx= 1/λ.
Para la varianza calcule primero el segundo
R∞ momento, usando
R ∞ nuevamen-
te integración por partes, E(X 2 ) = 0 x2 λ e−λx dx = 2 0 x e−λx dx =
R∞
(2/λ) 0 x λ e−λx dx = 2/λ2 . Por lo tanto Var(X)= E(X 2 ) − E 2 (X) =
2/λ2 − 1/λ2 = 1/λ2 .
170. P (X ≥ x + y | X ≥ x)= P (X ≥ x + y)/P (X ≥ x) = e−λ(x+y) /e−λx = e−λy
= P (X ≥ y).
171. F (x) F (y)= (1 − e−λx )(1 − e−λy ) = 1 − e−λx − e−λy + e−λ(x+y) = (1 − e−λx ) +
(1 − e−λy ) − (1 − e−λ(x+y) ) = F (x) + F (y) − F (x + y).
172. Suponga que el tiempo se mide en minutos. E(X) = 10 = 1/λ. Por lo tanto
λ = 1/10. Entonces P (X > 60)= 1 − P (X ≤ 60)= 1 − (1 − e−60/10 )= e−6
= 0.002478 . Por lo tanto de 1000 usuarios, aproximadamente 2.47 tienen
conexión mayor a una hora. a) P (X < 10) = F (10) = 1 − e−10/10 = 1 − e−1 =
0.6321 . b) P (10 < X < 60) = F (60)−F (10) = (1−e−6 )−(1−e−1 )= 0.3654 .
Apéndice B. Soluciones 159
Distribución gama
Distribución beta
R1 1 1
R1
176. Claramente f (x) ≥ 0, y 0 B(a,b)
xa−1 (1 − x)b−1 dx = B(a,b) 0
xa−1 (1 −
B(a,b)
x)b−1 dx = B(a,b) = 1.
R1 x B(a+1,b) R1 1
177. a) E(X) = 0 B(a,b)
xa−1 (1−x)b−1 dx = B(a,b) 0 B(a+1,b)
xa (1−x)b−1 dx
= B(a+1,b)
B(a,b) . Ahora se usa la identidad B(a + 1, b)
a
= a+b B(a, b) para obtener
E(X) = a/(a + b).
R 1 x2 R1
b) E(X 2 ) = 0 B(a,b) xa−1 (1 − x)b−1 dx = B(a+2,b)
B(a,b) 0
1
B(a+2,b) x
a+1
(1 −
B(a+2,b) a+1 a+1 a
x)b−1 dx = B(a,b) . En donde B(a+2, b) = a+b+1 B(a+1, b) = a+b+1 a+b B(a, b).
2 a+1 a a+1 a a2
Por lo tanto E(X ) = a+b+1 a+b , y entonces Var(X) = a+b+1 a+b − (a+b)2
ab
= (a+b+1)(a+b)2 .
Distribución normal
derivada excepto por el signo. Por lo tanto E(X) = µ. Para la varianza con-
R∞ 1 2 2
sidere el segundo momento E(X 2 ) = −∞ x2 √2πσ 2
e−(x−µ) /2σ dx. Efectúe
nuevamente el cambio de variable y = (x − µ)/σ y encuentre que E(X 2 )=
R∞ 2
µ2 +2µE(Z)+σ 2 E(Z 2 ). Resta encontrar E(Z 2 ) = −∞ y 2 √12π e−y /2 dy. Esta
2
integral puede realizarse por partes con u = y y dv = y √12π e−y /2 dy. El resul-
tado es 1. Por lo tanto E(X 2 ) = µ2 + σ 2 , y entonces Var(X)= (µ2 + σ 2 )−µ2 =
σ2 .
186. Suponga X ∼ N(µ, σ 2 ). Sea Z = (X − µ)/σ. Entonces FZ (u)= P (Z ≤ u)=
P ( X−µ
σ ≤ u)= P (X ≤ µ+uσ)= FX (µ+uσ). Derivando respecto a u, fZ (u)=
fX (µ + uσ)σ. Substituya la expresión para fX (x) y encuentre la densidad
normal estándar. El procedimiento es reversible. Suponga Z ∼ N(0, 1). Sea
X = µ + σZ. Entonces FX (x)= P (X ≤ x) = P (µ + σZ ≤ x)= P (Z ≤
(x−µ)/σ)= FZ ((x−µ)/σ). Derivando respecto a x, fX (x)= fZ ((x−µ)/σ)/σ.
Substituya la expresión de fZ (x) y encuentre la densidad N(µ, σ 2 ).
187. a) P (X ≥ 10)= 1/2. b) P (X < 0)= P (Z < −2)= 0.0228 . c) P (0 <
X ≤ 10)= P (−2 < Z ≤ 0)= 0.4772 . d) P (X ≥ 20)= P (Z ≥ 2)= 0.0228 .
e) P (−20 < X ≤ 10)= P (−6 < Z ≤ 0)= 1/2.
188. a) P (X ≤ 10)= P (Z ≤ 1)= 0.8413 . b) P (X > 0)= 1/2. c) P (0 <
X ≤ 40)= P (0 < Z ≤ 4)= 1/2. d) P (X ≥ 30)= P (Z ≥ 3)= 0.0013 . e)
P (−10 < X ≤ 10)= P (−1 < Z ≤ 1)= 0.6826 .
189. a) x = 1.115 . b) x = −1.375 .
190. Suponga a > 0. Entonces FY (y)= P (Y ≤ y) = P (aX + b ≤ y)= P (X ≤
(y − b)/a)= FX ((y − b)/a). Derivando, fY (y)= fX ((y − b)/a)/a. Substituya
ahora en esta expresión la función de densidad N(µ, σ 2 ) y encuentre la función
de densidad normal ahora con media aµ + b y varianza a2 σ 2 . Haga un análisis
semejante para el caso a < 0, tenga cuidado al dividir por tal cantidad. Los
nuevos parámetros son idénticos al caso anterior.
191. Sea Y = −X. Entonces FY (y)= P (Y ≤ y)= P (−X ≤ y) = P (X ≥ −y)=
1 − P (X < −y)= 1 − FX (−y). Derivando, fY (y)= fX (−y). Substituya ahora
la función de densidad de X evaluada en −y y compruebe que se trata de la
densidad normal con media −µ y varianza σ 2 .
2
√ √ √
192. Para x √ > 0, FX (x)= P (X ≤ x)=√ P (−1 x ≤ X√≤ 1 x) = FX√ ( x) −
2
Distribución ji cuadrada
Distribución t
198. La función es no negativa. Para comprobar que esta función integra uno
efectúe el cambio de variable 1 − u = (1 + x2 /n)−1 y reconstruya la integral
de B(1/2, n/2).
199. La integral E(X) es absolutamente convergente y el integrando es una función
impar, por lo tanto la integral es cero. Dado este resultado, la varianza es el
Apéndice B. Soluciones 163
Vectores aleatorios
200. —
201. —
202. —
203. —
204. —
Estadı́stica descriptiva
205. —
206. —
207. —
Pn Pn Pn Pn
208. i=1 (xi − x̄) = i=1 xi − nx̄ = i=1 xi − i=1 xi = 0.
Pn P n P n Pn
209. Pi=1 (xi − x̄)2 = i=1 (xP 2 2
i − 2xi x̄ + x̄ ) =
2
i=1 xi − 2x̄
2
i=1 xi + nx̄ =
n 2 2 2 n 2 2
i=1 xi − 2nx̄ + nx̄ = i=1 xi − nx̄ .
214. —
Estimación puntual
217. —
n−1 n−1
1 X 1 X
218. E(σ̂ 2 ) = E(Xi+1 −Xi )2 = 2
(E(Xi+1 )−2E(Xi+1 )E(Xi )+
2(n − 1) i=1 2(n − 1) i=1
n−1 n−1
1 X 1 X
E(Xi2 )) = (σ 2 + µ2 − 2µ2 + σ 2 + µ2 ) = 2σ 2 = σ 2 .
2(n − 1) i=1 2(n − 1) i=1
219. —
Método de momentos
220. —
221. —
222. —
223. —
224. λ̂ = X̄.
Apéndice B. Soluciones 165
225. —
226. —
Pruebas de hipótesis
227. Se acepta H0 .
228. Se rechaza H0 .
0 −µ
229. Cuando n → ∞, el cociente µσ/ √ 1 se va a infinito o menos infinito depen-
n
diendo del signo de la diferencia µ0 − µ1 .
166
Apéndice C
Formulario
Notación
El alfabeto griego
167
168
x
Z x
1 2
Φ(x) = √ e−t /2
dt
2π −∞
x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8399
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
Apéndice C. Formulario 169
α
tα,n
P (T ≥ tα,n ) = α
[1] Blake I. F. An introduction to applied probability. John Wiley & Sons, 1979.
[2] Blomm G., Holst L., Sandell D. Problems and snapshots from the world of
probability. Springer-Verlag, 1994.
[3] Devore J. Probabilidad y estadı́stica para ingenierı́a y ciencias. Thomson, 2001.
[4] Feller W. Introducción a la teorı́a de probabilidades y sus aplicaciones. Limusa,
1973.
[5] Garza T. Elementos de cálculo de probabilidades. UNAM, 1983.
[6] Hernández-Del-Valle A. y Hernández-Lerma O. Elementos de probabilidad y
estadı́stica. Serie Textos No. 21, Nivel Elemental. Sociedad Matemática Mexi-
cana, 2003.
[7] Hoel P. G., Port S. C., Stone C. J. Introduction to probability theory. Houghton
Mifflin, 1971.
[8] Hoel P. G., Port S. C., Stone C. J. Introduction to statistical theory. Houghton
Mifflin, 1971.
[9] Hogg R. V., Tanis E. A. Probability and statistical inference. 1993.
[10] Kolmogorov A. N. Foundations of the theory of probability. Chelsea Publishing
Company, 1950.
[11] Mood A. M., Graybill F. A., Boes D. C. Introduction to the theory of statistics.
McGraw Hill, 1983.
171
172 Bibliografı́a
[12] Miller I., Miller M. John E. Freund’s mathematical statistics. Prentice Hall,
1999.
[13] Ross S. A first course in probability. Macmillan Publishing Company, 1994.
[14] Ross S. M. Introduction to probability and statistics for engineers and scien-
tists. 2da Edición. Academic Press, 2000.
Axioma, 15 t, 71
uniforme continua, 62
Coeficiente multinomial, 25 uniforme discreta, 52
Combinaciones, 23
Conjunto Ensayo
—s ajenos, 11 Bernoulli, 53
potencia, 11 Escala
de intervalo, 85
Densidad de razón, 86
conjunta, 75, 76 nominal, 85
marginal, 79 ordinal, 85
Desviación estándar, 49 Espacio
de un conjunto de datos, 88 equiprobable, 13
Diferencia simétrica, 10 muestral, 7
Distribución Esperanza, 46
arcoseno, 130 propiedades, 49
Bernoulli, 53 Estadı́stica, 88
beta, 66 Estadı́stica, 84
binomial, 54 descriptiva, 84
binomial negativa, 59 inferencial, 84
conjunta, 77 Estandarización, 68
exponencial, 64 Estimación
gama, 65 por intervalos, 93
geométrica, 55 puntual, 89
hipergeométrica, 60 Estimador
ji-cuadrada, 70 de máxima verosimilitud, 90
marginal, 80 insesgado, 92
normal, 67 máximo verosı́mil, 90
normal estándar, 67 puntual, 89
Poisson, 57 sesgado, 92
173
174 Índice
Sesgo, 92
Teorema
central del lı́mite, 70
de Bayes, 33
de probabilidad total, 30
del estadı́stico inconsciente, 47
Triángulo de Pascal, 25
Valor
esperado, 46
promedio, 46
Variable, 84
aleatoria, 35
cualitativa, 85
cuantitativa, 85
Varianza, 49
de un conjunto de datos, 87
muestral, 89
propiedades, 51
Vector
aleatorio, 74
continuo, 74
discreto, 74