Epn-(3) Leyes Probabilidad
Epn-(3) Leyes Probabilidad
Epn-(3) Leyes Probabilidad
Variables aleatorias
2.1 Introducción.
La palabra aleatoria, implica el azar, es decir, que no se sabe cuál valor o resultado se
va a obtener como consecuencia de un experimento.
También son importantes las variables aleatorias, debido a que son el inicio para
comenzar a abordar lo que se llama la estadística inferencial, que se diferencia de la
estadística descriptiva, en que, la estadística inferencial toma como base la
probabilidad para llevar a cabo las diferentes pruebas de hipótesis requeridas.
Definición.
Sea, X una función, y su espacio muestral (sobre el cual está definida la función).
A la función X : ----------- R, se le llama variable aleatoria.
Se tiene una variable aleatoria discreta (v.a.d.), cuando se pueden numerar los valores
que puede tomar la variable, pudiendo establecer una correspondencia con el conjunto
de los números enteros positivos. La numeración o conteo de los valores de la variable
aleatoria discreta puede ser finita o infinita, es decir, cuando se pueden numerar los
valores como: 1,2,3, 4, ....,n,...
Por otro lado, se tiene una variable aleatoria continua (v.a.c.), cuando los valores que
puede tomar la variable no se pueden numerar, y por ende no se puede establecer una
correspondencia con los enteros positivos.
1
2.3 Función de distribución de probabilidad
F(x) = P(Ж ≤ x)
2
2.4 Caracterización de variables aleatorias
Así, por ejemplo, para notar la probabilidad de que al lanzar un dado salga un número
menor o igual que 3, tenemos lo siguiente:
Sea A el evento “que salga un número menor o igual que 3”, se notaba P(A).
Ahora, se define una variable aleatoria X, que representa el valor de la cara al
lanzar un dado, y se escribe simplemente P(X ≤ 3).
Variable X x1 x2 x3 . xi . Xn
aleatoria
Distribución o
ley de P p1 p2 p3 . pi . pn
probabilidad
∫ ( (
( ∫ ( ( ∫ (
3
Estas funciones de densidad o leyes de probabilidad tanto discretas o continuas,
surgen de situaciones reales en diferentes ámbitos del saber y, de acuerdo a la
situación y el descubridor de tales funciones, se han bautizado con diferentes nombres,
tales como:
Ley de Bernoulli, Ley Binomial, Ley de Poisson, Ley Geométrica, Ley Binomial
Negativa, etc., para el caso de variables aleatorias discretas y,
Ley Uniforme, Ley Normal, Ley T-student, Ley Chi-Cuadrada, etc., para el caso
de variables aleatorias continuas.
n
k E ( X ) xik pi
k
i 1
i 1
4
Vemos ahora las definiciones anteriores para una variable aleatoria continua X.
Además, con estas definiciones pueden plantearse algunas aplicaciones como el índice
de precios al consumidor, a partir del cual se mide la inflación, sea para la canasta
básica de bienes y servicios, o precios de la industria, etc.
Así, las leyes de probabilidad sean discretas (pi, = P(X = xi)) o continuas (f(x)), se
reitera, son funciones que surgen de situaciones y problemas reales, es decir, son
esquemas que se repiten con cierta frecuencia y que se modelan por una función
denominada ley de probabilidad.
5
Capítulo 3: Leyes de probabilidad para variables discretas
3.1 Ley Bernoulli
Bernoulli, es el esquema más simple de las leyes de probabilidad discreta y consiste en
lo siguiente:
Así, este es un experimento donde se tienen dos posibles resultados: (i) ocurre el
evento, y (ii) no ocurre el evento. Cuando ocurre el evento, se dice que se tiene un
éxito (E), mientras que, cuando no ocurre el evento, se dice que se tiene un fracaso (F).
Sea X, la variable aleatoria discreta de Bernoulli que cuenta el número de éxitos que se
obtienen del experimento, como tal puede tomar dos valores 0 y 1, equivalente a
fracaso y éxito respectivamente.
Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con el
número cuatro. Si sale el número cuatro, se dice que se tiene un éxito, en caso
contrario (si sale el uno o el dos o el tres o el cinco o el seis), se tiene un fracaso.
P(éxito) = P(E) = P( X = 1) = p
P(fracaso) = P(F) = P( X = 0) = q
Para el ejemplo planteado, se tiene un éxito si sale la cara marcada con el número
cuatro, entonces:
P(E) = 1/6 (por definición básica de probabilidad), y
P(F) = 5/6 (ya que p + q = 1).
E(X) = 1 * p + 0 * q = p
La varianza es:
6
3.2 Ley Binomial
Supongamos ahora, que se realizan “n” experimentos de Bernoulli, cada uno de ellos
de forma independiente. Consideremos en este caso la variable aleatoria discreta X,
que representa la suma de éxitos obtenidos en los “n” experimentos de Bernoulli.
Los posibles resultados de suma de éxitos que se pueden tener son: 0 éxitos, 1 éxito, 2
éxitos, 3 éxitos..., hasta n éxitos.
Así, bajo este esquema se plantea lo siguiente, ¿cuál será la probabilidad de obtener
k éxitos, como resultado de los n experimentos de Bernoulli?.
Se realizan “n” experimentos de Bernoulli”, de los cuales “k” son éxitos (y por lo tanto
se tienen (n-k) fracasos). Supongamos que ocurrió la siguiente serie de k éxitos y (n-k)
fracasos.
Luego la probabilidad de tener “k” éxitos para esta serie de eventos de Bernoulli es:
P(B1) = P(E ∩ E ∩ F ∩ F ∩ E …. ∩ E ∩ E ∩ F ∩ E ∩ E)
= P(E) P(E) P(F) P(F) P(E) ….. P(E) P(E) P(F) P(E) P(E)
= p * p * q * q * p * …. *p*p* q * p * p = pk q n-k
Supongamos ahora que, de los n eventos de Bernoulli, los primeros k eventos fueron
éxitos, y los restantes (n-k) fracasos. Veamos si cambia la probabilidad, para este
esquema, como puede apreciarse en la siguiente figura:
Nuevamente, la probabilidad de tener “k” éxitos para esta serie, está dada por:
P(B2) = P(E ∩ E ∩ E ∩ E ∩ E …. ∩ F ∩ F ∩ F ∩ F ∩ F)
= P(E) P(E) P(E) P(E) P(E) ….. P(F) P(F) P(F) P(F) P(F)
= p * p * p * p * p * …. *q*q* q * q * q = pk q n-k
1
Toma este nombre en honor al famoso Binomio de Newton.
7
Se aprecia que la probabilidad no cambia. Sin embargo, no interesa solamente las
series B1 y B2 de eventos, sino todas las combinaciones posibles, ya que se desea
calcular la probabilidad de tener k éxitos en n eventos de Bernoulli en cualquier orden
que éstos aparezcan.
n!
P( X k ) p k q ( nk )
k!(n k )!
Siendo ésta, la LEY BINOMIAL DE PROBABILIDADES.
X (número
0 1 … k … n
de éxitos)
… n! … n!
p k q (nk ) p n q (nn)
P n! n!
p 1 q ( n 1) k! (n k )! n! (n n)!
(probabilidad p 0 q ( n 0 )
de los 0!(n 0)! 1! (n 1)!
éxitos)
E ( X ) xi pi np
i 1
Puede apreciarse que si se aplica esta ley para n=1, se tiene la ley de Bernoulli.
2
El factorial no existe para enteros negativos
Por ejemplo, 5 factorial = 5! = 1*2*3*4*5 = 120,
10 factorial = 10! = 1*2*3*4*5*6*7*8*9*10 = 3’628.800
Por definición 0 factorial = 0! = 1
8
Veamos unos ejercicios sobre este esquema para aclarar los conceptos vistos.
Solución:
La probabilidad de un éxito está dada por la probabilidad de que salga la cara marcada
con el cuatro al lanzar el dado, P(E)= p = 1/6, y q = 5/6.
15 ( 2015 )
20! 1 5
P( X 15) = 0,000000013
15!(20 15)! 6 6
Así, podemos apreciar que la probabilidad de que ocurra tal situación es bastante baja,
casi nula de que ocurra.
Y la respuesta fue afirmativa a tal inquietud; y, se resolvió con base en la ley binomial
de probabilidades.
Se plantea además que para aprobar el examen deben responder correctamente por lo
menos 16 preguntas.
Solución:
Cada una de las respuestas puede ser vista como un evento de Bernoulli, teniendo un
éxito si aciertan la pregunta, o fracaso si responden incorrectamente la pregunta.
9
Luego, como son 20 preguntas, tenemos el equivalente a 20 eventos de Bernoulli,
sabiendo que para aprobar el examen deben tenerse por lo menos 16 éxitos, es decir,
pueden ser 16 o 17 o 18 o 19 o 20 éxitos.
Para el primer estudiante (que estudió alrededor del 60% de la materia), los parámetros
son:
n= 20 (eventos de Bernoulli)
p = P(E) = 0.8 (probabilidad de acertar en una pregunta cualquiera). Y se
deduce dicho valor por una regla de tres, tomando en cuenta que sin estudiar
tienen una probabilidad de acertar de por lo menos 0.5.
q = 0.2 (complemento de p)
los éxitos (en la fórmula Binomial es el valor k) son 16, 17, 18, 19 y 20.
Veamos ahora el caso del segundo estudiante (que estuvo de farra), los parámetros
son:
n= 20 (eventos de Bernoulli)
p = P(E) = 0.5 (probabilidad de acertar en una pregunta cualquiera, por
definición básica de probabilidad)
q = 0.5 (complemento de p)
los éxitos (en la fórmula Binomial es el valor k) son 16, 17, 18, 19 y 20.
Si dividimos estas probabilidades (0.6296 / 0.0059 ), la persona que estudió tiene 107
oportunidades más de éxito con el examen, frente a quién no estudió.
10
3.3 Ley Hipergeométrica
M! ( N M )!
k ( nk )
C C ( N M ) k!( M k )! (n k )!( N M n k )! Ley
P( X k ) M
n
Hipergeométrica
C N
N! de probabilidades
n!( N n)!
(
( (
(
11
Ejercicio. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10 mujeres.
Se toma al azar un grupo de 2 personas. ¿Cuál será la probabilidad de que el grupo
tomado al azar esté compuesto por 1 hombre y 1 mujer?.
El espacio muestral esta formado por todas las combinaciones posibles de dos
personas que pueden darse de entre las 20 totales.
12
Así, del gráfico podemos ver, por ejemplo, que el primer hombre puede combinarse o
hacer grupos de dos, con cada una de las 10 mujeres, y con cada uno de los nueve
hombres restantes.
Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son 100,
ya que son las combinaciones de cada uno de los 10 hombres con cada una de las 10
mujeres (10*10).
Pero también, por ser tomados al azar, pueden formarse grupos de dos hombres o dos
mujeres. Y, podemos ver que el primer hombre se puede combinar con los otros nueve
hombres, teniendo así 9 grupos; luego el segundo hombre se puede combinar con los 8
hombres restantes, teniendo 8 grupos posibles más, y así sucesivamente, hasta llegar
al penúltimo que forma un grupo más con el último.
Luego el espacio muestral está formado por un conjunto de 190 elementos (grupos
posibles de 2 personas), de los cuales, 100 están compuestos por 1 hombre y una
mujer, 45 están formados por 2 hombres, y 45 están formados por 2 mujeres.
Por definición de probabilidad, tenemos que 100 elementos (de los 190 posibles),
cumplen la condición (grupos de 2 personas formado por un hombre y una mujer).
Sin embargo, este ejercicio resulta fácil de resolver por la definición básica de
probabilidad debido solamente a que se toma un grupo de dos personas. Para el caso
en que se tomara, por ejemplo, 7 personas al azar, de las cuales 3 sean hombres, y 4
mujeres, resulta casi imposible resolver por la definición básica de probabilidad, pero
en cambio es muy fácil hacerlo con la ley Hipergeométrica que modela tal situación.
13
3.4 Ley de Poisson
Existen eventos o esquemas en los cuales se tiene arribos o llegadas de elementos a
un sistema, por ejemplo:
personas que llegan a un banco para ser atendidos,
personas que llegan o arriban a un centro comercial,
carros que llegan a una cierta esquina
aviones que arriban a un aeropuerto
llamadas telefónicas que arriban a una central, etc.
Luego, un esquema o sistema que cumpla con estas tres condiciones a la vez, se llama
proceso físico de Poisson3.
Analicemos ahora el caso de los carros que llegan a una determinada esquina de la
cuidad. La esquina con los semáforos es el sistema, y los carros son los elementos que
arriban a la esquina (sistema), donde son “atendidos” y continúan. Los carros, en
general, llegan o pasan por el lugar en forma aleatoria, son independientes entre sí, y
también, en general, los tiempos entre arribos podemos decir que son aleatorios, y por
lo tanto, puede establecerse que este es un proceso de Poisson.
Pero como se modela una situación como ésta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir de manera continua.
Para modelar este proceso, se establece un cierto intervalo de tiempo para el análisis,
por ejemplo, un minuto, o una hora, etc., y se plantea ¿cuál será la probabilidad de que
al sistema arriben k elementos (en el intervalo de tiempo acordado para el análisis)?
3
Suele decirse que esta ley sirve para modelar eventos raros.
14
Sea X, la variable aleatoria discreta que representa el número de elementos k que
arriban al sistema durante el intervalo de tiempo establecido. Se define la Ley de
probabilidades de Poisson por:
k e
P( X k )
k!
Donde,
λ, se denomina el parámetro de Poisson, y representa al número
promedio de elementos que arriban al sistema durante el intervalo de
tiempo acordado.
e, es el número 2.7182 (base de los logaritmos naturales)
Los valores que puede tomar esta variable aleatoria teóricamente van desde cero hasta
el infinito, es decir, k = 0,1,2,3,.....
Una de las cosas interesantes que podemos notar en estos procesos de Poisson es
que los elementos pueden forman colas si el tiempo de atención en el sistema tarda,
como es el caso típico al ir a un Banco, a un centro comercial, una llamada en espera,
el tráfico vehicular, etc. Así, con este modelo, puede estudiarse lo que suele
denominarse “teoría de colas”.
E(X) = λ , V(X) = λ
Solución:
Luego tenemos:
7 0 e 7
Probabilidad que no pase ningún carro = P( X 0) = 0.000912
0!
7 5 e 7
Probabilidad que pasen 5 carros = P( X 5) = 0.127717
5!
7 20 e 7
Probabilidad que pasen 20 carros = P ( X 20) = 0.000030
20!
15
Capítulo 4: Leyes de probabilidad para variables continuas
4.1 Ley Uniforme
Se dijo que el evento de Bernoulli, era el esquema más simple de las leyes discretas.
Dde manera similar puede decirse que la ley uniforme de probabilidad es la más
sencilla de las variables aleatorias continuas.
Esta ley se caracteriza por ser constante en el intervalo [a, b] donde está definida, y
suele llamarse también ley o distribución rectangular. Así, se llama Ley Uniforme
de Probabilidades a la función de densidad:
1
(b a) , si a x b
f ( x)
0, en el resto
Gráficamente se tiene:
El valor esperado y la varianza de una variable aleatoria uniforme están dados por:
Esta ley sirve para modelar, entre otros, el comportamiento de errores de redondeo. Sin
embargo, lo más notable es que de esta ley surgen los famosos “números aleatorios4”
que se los notan con la letra r.
Así, un número aleatorio r, es una variable aleatoria continua, cuya ley de probabilidad,
es la ley uniforme de probabilidades definida en el intervalo [0, 1].
Los números aleatorios tienen una gran cantidad de aplicaciones, sirviendo como base
para la generación de otras variables aleatorias, o para la selección de muestras, entre
otras cosas.
4
Los números aleatorios tienen un sinnúmero de aplicaciones, sirviendo para generar otras variables aleatorias, o
para aplicaciones en teoría de muestreo.
16
4.2 Ley Normal de probabilidades
( x )2
1
f ( x) e 2 2
2
Es decir que para utilizar esta ley necesitamos de dos parámetros, la media y la
varianza.
En una distribución normal, se tiene que al recorrer una desviación estándar hacia la
izquierda y derecha del promedio (esperanza matemática), se tiene aproximadamente
el 68% de toda la información. Entre dos desviaciones estándar queda el 95% de toda
la información, mientras que entre tres desviaciones estándar se tiene el 99% de toda
la población.
17
Recordando la definición de variable estandarizada (Z), y teniendo:
(X )
La variable aleatoria Z , tiene como ley de probabilidad, la llamada ley
normal estandarizada5 o tipificada, con media 0 y varianza 1, cuya función de densidad
está dada por:
z2
1
f ( z) e 2
2
Nota: todos los paquetes estadísticos, tienen implementados algoritmos para realizar
cálculo de probabilidades para muchas leyes de probabilidad, inclusive la hoja
electrónica “Excel”, tiene comandos para calcular probabilidades de varias leyes de
probabilidad.
5
De esta función se encuentran tabulados valores de probabilidad en los libros de estadística.
18