0% encontró este documento útil (0 votos)
12 vistas16 páginas

Distribuciones Elementales

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 16

DISTRIBUCIONES ELEMENTALES DE PROBABILIDAD

DISTRIBUCIÓN BERNOUILLI

Supongamos un experimento aleatorio que puede tomar solamente dos resultados posibles: ÉXITO o FRACASO.
La V A es dicotómica: admite sólo dos resultados posibles.
Definiremos la siguiente variable aleatoria discreta que puede tomar los siguientes valores:

X1 = 1 cuando se produce ÉXITO y será P(X1) = p


X2= 0 cuando se produce FRACASO y será P(X2) = (1-p)=q

Diremos que esta variable aleatoria así definida tiene una “Distribución de Bernouilli”
También podemos decir que responde a un “Experimento o proceso Bernouilli”

Tabla de probabilidades y características de la distribución Bernouilli

Xi pi X i pi X i2 pi DESVÍO
2 2
Xi Xi Xi pi
2 2
X1 1 p p p 1-p=q q qp
2 2
X2 0 (1 − p ) =q 0 0 0-p=-p p pq
2 2
Σ=1 p p q p+ p q=
pq(q+p)=
pq
m1 m2

m1 = E( X ) = P( X1 ) = p
m2 = p
ϕX2 = m2 − m12
ϕX2 = p − p 2 = p − p· p = p(1 − p)
ϕX2 = pq
ϕX = pq

ESQUEMAS DE PRUEBAS REPETIDAS

DISTRIBUCIÓN BINOMIAL

Una variable aleatoria seguirá una distribución Binomial, si se cumplen los siguientes supuestos que caracterizan a
este modelo probabilístico:

1. Se realizan “n” repeticiones de un experimento que tiene solamente dos posibles resultados, (prueba
dicotómica) los cuales se denominan éxito o fracaso
2. La probabilidad de que ocurra un éxito, que se simboliza con “p”, es la misma para todas y cada una de las
repeticiones del experimento que se lleven a cabo. (probabilidad de éxito constante)
3. Los experimentos se repiten de manera independiente (pruebas repetidas), de tal forma que los resultados
de experimentos sucesivos no influyen entre sí
4. La variable aleatoria toma “n+1” valores, mutuamente excluyentes y colectivamente exhaustivos (esto último
por la definición de VA, que la suma de Probabilidades suma la unidad)
5. El número de pruebas es de dos o más y “p+q=1” (si n=1 sería una Distribución Bernouilli)

Si estos supuestos se cumplen, la probabilidad de obtener “Xi” éxitos en “n” repeticiones del experimento, vendrá
dada por, algunos la llaman “s” (incluso en letra cursiva):

P( X = X i / n , p ) = CmX i p X i q n − X i

Recordando que en el proceso Bernouilli, la Esperanza es “p” y la Varianza es “pq“ y que la distribución Binomial
surge de repetir “n” veces un proceso Bernouilli, tendremos que:

1
si X ⇒ B(n, p )
E( X ) = np
ϕX2 = npq
ϕ X = npq

El nombre de “Binomial” proviene del hecho que la suma de las probabilidades asociadas a cada valor de la variable
n
es el desarrollo del binomio (p+q) = 1
Hay un ejercicio en la guía de trabajos prácticos, que presenta varios valores de “p” y de “n”, mediante su resolución
se aprecia al hacer los gráficos que: si “p” es aproximadamente igual a “q” la distribución es simétrica, y cambia esta
característica al cambiar “p”.
En dichos gráficos de frecuencias se aprecia que hay una (o dos) ordenadas máximas, lo que lleva al concepto de
Eventualidad más probable, en simbología:

np − q ≤ X i ≤ np + p
1
Binomial expresada en proporciones (Kazmier pág 107)

Si en lugar de expresar la VA Binomial como el “número de éxitos Xi”, lo hacemos en función de la “proporción de
éxitos fi” siendo esta “proporción” la nueva variable, la cual sigue siendo una VA Binomial discreta, pues sólo se
puede calcular para los valores “Xi” que toma la variable.
Xi
La nueva variable fi =
representa la proporción del número de éxitos en el total de las “n” pruebas, y esta nueva
n
variable también tiene distribución Binomial: f ⇒ B ( n, p ) .

Cuando se examinan variables cualitativas, la característica que se suele considerar es la proporción de éxitos.
2
Se define la proporción de éxitos como el cociente entre el número de éxitos obtenidos y el tamaño de la muestra .

Recordemos que en la binomial, la expresión para calcular la probabilidad de un determinado número de éxitos, la
esperanza (número promedio de éxitos) y la varianza son:

P(X = X i ) = CnX i .p X i .q n- X i ; E(X ) = np ; ϕX2 = npq

Ahora, en lugar de expresar la variable en términos del número Xi de éxitos, se convierte la variable en una
proporción de éxitos al dividirla entre “n”, el tamaño de la muestra.

Por lo tanto:

• la proporción ( nueva variable),


• la proporción esperada de éxitos (Esperanza)
• la varianza de la proporción
• y la formula para calcular las probabilidades, serán:

Xi 1 1 pq
f = ; E( f ) = E X  = np = p ; ϕ (2f ) = 2
npq =
n  
n
n n n
P( f = fi / n , p ) = CnX i p X i q n − X i

Pruebas dicotómicas, repetidas, con probabilidad de éxito constante.


X = es la VA “número de éxitos que pueden obtenerse…”

Caso práctico: Se tiene un bolillero con 5 Rojas y 3 Negras: (5R y 3N),

Se realizan 2 extracciones con reposición.


Se considera éxito el obtener bolilla roja

1
Esto tiene utilidad cuando se trabaja en Inferencia con proporciones.
2
Es el concepto de frecuencia relativa aplicado a la distribución binomial.
2
Simbología: p= probabilidad de éxito; (1-p)=q= probabilidad de “no éxito” y n= número de pruebas

Se puede construir un “Árbol de probabilidades” con la secuencia de 1ª, y 2ª extracción y con dichos datos, la tabla
de los pares de valores “Xi” “P(Xi)”

2
Xi P(Xi) Xi P(Xi) X P(Xi)
2 0 2
0 qq = q = 1p q 0 0
1 1 1 1 1 1
1 pq+qp = 2p q 2p q 2p q
2 2 0 2 0 2 0
2 pp = p = 1p q 2p q 4p q

2 2 2 2
Suma q +2pq+p = 2pq+2p =2p(q+p)= 2pq+4p =
2 2
(p+q) =1 2p 2pq+(2p)

“Binomial” m1 m2

Características:
∑  P ( Xi )
 =q 2 + pq + p 2 = ( p + q ) 2 = 12

∑  P ( Xi )  =1
E( X ) = ∑  X i × P( X i )  = 2 p1 q1 + 2 p 2 q 0 = 2 p  q1 + p1  = 2 p
E( X ) ⇒ E( X ) = np
m2 = 2 pq + 4 p 2 = 2 pq + (2 p ) 2
ϕX2 = m2 − (m1 ) 2 = 2 pq + (2 p)2 − (2 p) 2 = 2 pq
ϕX2 ⇒ ϕX2 = npq

Estamos en presencia de:


• una VA discreta,
• los distintos resultados son independientes entre sí
• (p + q) = 1
• hay “n+1” resultados posibles mutuamente excluyentes
• el número de pruebas es mayor o a lo sumo igual a 2

Entonces:
• Enunciando: “Número de bolillas rojas que puedan obtenerse si de un bolillero que contiene 5R y 3N, si se
realizan tres extracciones sin reposición”
• Se construyó la tabla de probabilidad asociada a la VA “número de éxitos”
• Se verificó que la suma de las probabilidades es igual a la unidad

POR LO TANTO, ha quedado definida la VA “X= Número de éxitos….”

EVENTUALIDAD MÁS PROBABLE Y PROBABILIDAD MÁXIMA

Se busca a qué valor de X le corresponde la probabilidad máxima.

P( X 0 ) ≥ P( X 0 −1) se compara con el inmediato anterior si X0 es el valor de probabilidad máximo


P( X 0 ) ≥ P( X 0 +1) se compara con el inmediato posterior si X0 es el valor de probabilidad máximo

Demostración del Valor más probable: SUS LIMITES

3
n!
p 0 q( 0 )
X n− X
P( X 0 ) X 0 !( n − X 0 ) ! n ! ( X 0 − 1) !( n − X 0 + 1) ! p
≥1 ⇒ ≥1 ⇒ ≥
P( X 0 −1) n!
p X 0 −1 q
( n − X 0 +1) n! X 0 ! ( n − X 0 )! q
( X 0 − 1)!( n − X 0 + 1)!
p n − X0 +1
≥1 ⇒ p ( n − X 0 + 1) ≥ qX 0 ⇒ pn − pX 0 + p ≥ qX 0
q X0
pn + p ≥ qX 0 + pX 0 ⇒ np + p ≥ X 0 ( p + q ) ⇒ np + p ≥ X 0 LIMITE SUPERIOR

n!
p X0 q ( 0 )
n− X
P( X 0 ) X 0 !( n − X 0 ) ! n ! ( X 0 + 1) ! ( n − X 0 − 1) ! q
≥1 ⇒ ≥1 ⇒ ≥
P( X 0 +1) n!
p ( X 0 +1) ( n − X 0 −1)
q n! X 0 ! ( n − X 0 ) ! p
( X 0 + 1)!( n − X 0 − 1)!
q X0 +1
≥ 1 ⇒ q ( X 0 + 1) ≥ p ( n − X 0 ) ⇒ qX 0 + q ≥ pn − pX 0
p n − X0
pn − q ≤ qX 0 + pX 0 ⇒ np − q ≤ X 0 ( p + q ) ⇒ np − q ≤ X 0 LIMITE INFERIOR

Demostración de la probabilidad máxima:

Auxiliar, según Moivre-Stirling cuando el factorial de “n” es muy grande se puede aproximar por la siguiente
expresión: n ! ≅ n e 2π n . n −n

Entonces podríamos escribir el cálculo de la función de probabilidad del esquema binomial de la siguiente manera:
n!
P( X 0 ) = CnX 0 p X 0 q n − X 0 = p X 0 qn− X 0 ≅
X 0 !( n − X 0 ) !
nn e− n 2π n ⋅ p X 0 q n − X 0
≅ ≅
(n− X 0 )
X 0 X 0 e− X 0 2π X 0 ⋅ ( n − X 0 ) e −( n − X 0 ) 2π ( n − X 0 )
X0 n− X 0
n X 0 nn − X 0 2π n ⋅ p X 0 qn− X 0  np   nq  n
≅ ≅    
X 0 X0 2π X0 ⋅ (n − X0 )
( n− X 0 )
2π ( n − X 0 )  X0   n − X0  2π X 0 ( n − X 0 )

Finalmente la probabilidad máxima podría determinarse conforme a la siguiente aproximación:


X0 n− X 0
 np   nq  n
P( X 0 ) ≅    ; si X 0 = np entonces
 X0   n − X0  2π X 0 ( n − X 0 )
np n − np n (1− p )
 np   nq  n  nq  1 1
≅    ≅ 1np   ≅
 np   n − np  2π n p ( n − np )  n(1 − p )  2π pn (1 − p ) 2π npq

DISTRIBUCIÓN HIPERGEOMETRICA

Pruebas dicotómicas, repetidas, con probabilidad de éxito variable.


X = es la VA “número de éxitos que pueden obtenerse…”

Considerar la posibilidad de que al suceder un evento se afecte la probabilidad de ocurrencia de otro.


Esto puede ocurrir si se trabaja con poblaciones finitas y se aplica el muestreo sin reemplazo.

Por ejemplo: el bolillero con 5 Rojas y 3 Negras: (5R y 3N), del cual se extraen 3 bolillas sin reposición.
¿Cuál será la probabilidad de que 2 de ellas sean Rojas?

El espacio muestral podría ser:

4
p1roja p2roja q1negra
p1roja p3roja q1negra
p1roja p4roja q1negra
p1roja p5roja q1negra
... ... ...
Si hay 5 Rojas, el número de formas posibles de obtener 2 Rojas es: C52

Ahora, de las 3 bolillas que extraemos, deseamos que 2 sean Rojas y la tercera Negra, de tal forma que las
posibilidades de obtener Negra, de entre 3 que hay en el bolillero, son las combinaciones: C31

Luego, el total de combinaciones posibles para obtener 2 Rojas (y 1 negra) será: C52 ·C31
Lo cual representa los casos favorables
Los casos posibles (formas en que se pueden obtener 3 bolillas de un total de 8): C83

C53 C31
Por lo tanto, la probabilidad de obtener 2 Rojas al extraer 3 bolillas, será: P(2 R ) =
C83
A este tipo de distribución se le llama distribución Hipergeométrica.
X ≈ H ( n, N , N p )
Xi
C Np C Nn −−XiN p
P( Xi|n , N , Np ) =
CNn
Np
E( X ) = n = np
N
N p Nq  N − n   N −n
ϕX2 = n   = npq  
N N  N −1   N −1 
Donde Xi es el número de éxitos que se desea obtener, N es el tamaño de la población, n es el tamaño de la
muestra, y Np es el número de éxitos que es posible lograr.
Xi ≤ N p
Tener en cuenta que el valor Xi tiene sus límites:
Xi ≤ n
De lo que puede inferirse que el esquema tiene sus límites:
n ≤ N el tamaño de la muestra no puede ser mayor al tamaño de la población
X i ≤ N p el número de éxitos no puede superar a los individuos que cumplen con la condición estudiada
n − X i ≤ N q el número de fracasos no puede superar a los individuos que no cumplen con la condición

DISTRIBUCIÓN MULTINOMIAL O POLINOMIAL

Corresponde a aquella distribución de más de dos sucesos, puede entenderse como una generalización de la
distribución Binomial.

Su expresión sería, a partir del esquema binomial:


n!
P( X 0 ) = CnX 0 p X 0 q n − X 0 = p X 0 q n− X 0
X 0 !( n − X 0 ) !

n
Para varios sucesos: X1 X2 X3 ⋯ Xn ⇒ ∑X i =1
i =n
n
Con sus correspondientes probabilidades: p1 p2 p3 ⋯ pn ⇒ ∑pi =1
i =1

En función de estas condiciones la expresión del esquema Binomial se replantea de la siguiente manera:
5
n!
P( X 1, X 2 , X 3 ,⋯, X n ) = p X1 p X 2 p X 3 ⋯ p Xn
X 1 !* X 2 !* X 3 !* ⋯ * X n !

ESTE CASO SE TRATA DE UN ESQUEMA DE PROBABILIDAD CONSTANTE PARA MÚLTIPLES SUCESOS DE


APARICIÓN.

DISTRIBUCIÓN DE POISSON

Ley de Poisson para las probabilidades pequeñas.

Se debe a Poisson la obtención de una ley de probabilidad que da, con aproximación satisfactoria, el valor de la
probabilidad de ocurrencia de Xi éxitos en “n” pruebas repetidas con una probabilidad elemental “p” tan pequeña que
permita aceptar la hipótesis: np = K o λ .
n →∞
Siendo K una constante finita y positiva.

Partiendo de la probabilidad de presentación de “Xi” éxitos en “n” pruebas repetidas, (la Binomial), y siendo:
np = k o λ y n → ∞ ; se hacen los siguientes reemplazos:
K λ K λ
p= = y q = 1− = 1− y se desarrolla la fórmula de Poisson.
n n n n
Su demostración sería:
n− X
λ  λ
X
n! n− X
P( X ) = C p q =X X
  1 − 
X !( n − X ) !  n  
n
n
como n → ∞; reemplazamos n ! por su aproximacion
n− X
n n e− n 2π n λ  λ
X

P( X ) ≅   1 − 
X !( n − X ) 2π ( n − X )  n  
n− X −( n − X )
e n

Auxiliar:
nn = nn− X n X
−( n − X )
en e = eX
 λ
n

n− X 1 − 
 λ
= 
n
1 − 
 λ
X
 n
1 − 
 n
n− X
 X
(n − X )
n− X n− X
=n 1 − 
 n
 X
2π ( n − X ) = 2π n 1 − 
 n
haciendo los reemplazos tenemos:
λX  λ
n

n n− X
n X
2π n 1 − 
nX  n
P( X ) ≅ n− X
X  λ 
X
 X 
X ! n n − X 1 −  eX 2π n 1 −  1 − 
 n  n  n

6
despues de simplificar veamos que queda:
 λ
n

λX 1 − 
P( X ) ≅  n
n− X
X  λ 
X
X! X 
 1 −  e 1 −  1 − 
X

 n  n  n
Auxiliar:
1 1
n− X n− X + n −X +
 X  X  X 2  X  X 2
agupando las potencias de igual base 1 −   1 −  = 1 −  = 1 −  1 − 
 n  n  n  n  n
 λ
n

y sabiendo que: 1 −  = e − λ
 n
la expresion queda definida como:
λX e− λ λX e−λ
P( X ) ≅ 1
≅ 1
X! −X + X! −X +
X  2 λ X  2 λ
n X X
 X X −X X 
1 −  e 1 −  1 −  e e 1 −  1 − 
 n  n  n  n  n
entonces si n → ∞, los cocientes por n → a 0; la expresion final queda:

λX
P( X ) ≅ e−λ
X!

Para: n→∞
p→0
np → λ

En muchos casos conocemos el número de éxitos, pero se torna difícil, y a veces, sin sentido, determinar el número
de fracasos o bien el número total de pruebas.

Por ejemplo: automóviles que pasan por una esquina. Se puede contar la cantidad de autos que pasan en un
determinado intervalo de tiempo, pero el número de autos que dejan de pasar no podrá ser calculado.

De la misma manera ocurre, por ejemplo, con el número de defectos en un rollo de cable. Se podrá anotar la cantidad
de defectos por metro que posee, pero se podrá anotar cuantos defectos no tiene.

Analizando estos ejemplos, se verifica la existencia de una variable “t” (un “continuo”) y que cuando dicho “continuo”
aumenta (tiende a infinito), la probabilidad de encontrar “éxito” tiende a aumentar.

Bortkiewicz, basándose en la exponencial de Poisson hizo deducciones muy interesantes con su aplicación a los
llamados fenómenos raros: que son aquellos que permiten afirmar con fundamento práctico que la
probabilidad de su presentación (p) es muy pequeña en un número (n) muy elevado de casos.
Fenómenos raros: suicidios, partos triples, incendios, accidentes, soldado del ejército prusiano, etc.
En estos casos, ignorándose (p) y (n), la media aritmética empírica (k) ( promedio estimado empírico, que puede
estimarse a partir de observaciones), permite obtener un valor aproximado k=np y calcular la probabilidad
aproximada de que el fenómeno se presente (Xi) veces mediante la expresión de Poisson:

K Xi − K
P( X i ) ≅ e
Xi !

Donde Xi = cantidad de éxitos (ocurrencias) que pueden presentarse en el intervalo,


El número de éxitos puede tomar valores desde cero hasta infinito: 0< Xi < infinito.

FENÓMENOS RAROS (BERENSON)


7
Se trata de sucesos (éxitos) discretos (numerables) que se presentan en un intervalo continuo, de tal manera de que
si se acorta el intervalo lo suficiente, se pueden observar las siguientes características:
1. La probabilidad de ocurrencia de éxito es constante y proporcional a la amplitud del intervalo,
2. La probabilidad de más de un éxito (ocurrencia) en cualquier punto es cero
3. Los sucesos son independientes: el número de ocurrencias en cualquier intervalo es independiente del número
de ocurrencias en otros intervalos.
4. Los límites de éxitos (ocurrencias), van desde cero hasta infinito.
5. Es imposible conocer el número de fallos o fracasos, porque no se puede contar el número de sucesos que no
ocurren.
6. La cantidad media (promedio) de éxitos (ocurrencias) es constante respecto del intervalo (k = np)

Donde : p = k/n;
n = extensión del intervalo considerado;
p = frecuencia media de presentación de los éxitos por unidad de intervalo.
Xi = cantidad de éxitos que se presentan en el intervalo 0 < Xi < infinito

K Xi −K
P( X i ) = e donde: P( X i = 0) = e− K y si X i → ∞....P( X i ) = 0
Xi !

Lo importante es que el evento ocurre no como resultado de la repetición de experimentos, como en el caso de la
Binomial, sino debido a que se cumplen, aunque sea de manera aproximada, los siguientes supuestos:
1. Las veces que ocurre el evento en una cierta unidad de tiempo( o de área o de volumen) es independiente de
lo que ocurra en otra unidad de tiempo.
2. El número esperado de ocurrencias por unidad de tiempo (k) no se modifica con el paso del tiempo.
3. La probabilidad de que ocurran dos o más eventos en una unidad de tiempo específica es prácticamente
cero, en comparación con la probabilidad de que ocurra un solo evento

K Xi − K
El modelo probabilístico resultante es: P( X i ) ≅ e para Xi =0, 1, 2,...
Xi !

En donde la VA “X” denota la ocurrencia del evento considerado como éxito.

KAZMIER, nos dice que puede utilizarse la distribución de Poisson para determinar la probabilidad de que ocurra un
número determinado de eventos, cuando éstos ocurren en un continuo de tiempo o espacio,

A un proceso de este tipo se lo llama Proceso de Poisson

Es similar al proceso Bernouilli, excepto que los eventos ocurren en ensayos u observaciones fijas. Solamente se
necesita conocer el número promedio a largo plazo de eventos para el tiempo o dimensión específica de interés. (k)

Como se supone que un proceso de Poisson es estacionario, se concluye que la media del proceso es siempre
proporcional a la longitud del continuo de tiempo o espacio. Es decir, si se conoce la media para una cierta longitud
de tiempo, se puede determinar la media para cualquier otro período que se requiera. Esto es importante, porque el
valor de “k” que se utiliza debe aplicarse al período de tiempo pertinente.

FUNCIÓN DE FRECUENCIAS EN LA DISTRIBUCIÓN DE POISSON

La distribución es discreta con asimetría marcadamente positiva.

Recordar que proviene del esquema binomial.


• al ser (p) pequeña la asimetría es positiva
• al ser (n) grande ( tiende a infinito), y (p) constante, la distribución tiende a ser simétrica
n =∞
Es considerada una variable aleatoria, por lo tanto la ∑p
X =0
X = 1 , y se puede demostrar de la siguiente
manera:

8

λ2 λ3 λn
∑ pi = e−λ + λ e−λ +
i =0 2!
e−λ +
3!
e−λ + ⋯ +
n!
e− λ =

 λ λ λ 
2 3 n
= e− λ 1 + λ + + +⋯+ ,
 2! 3! n! 
 λ2 λ3 λn 
donde la sumatoria 1 + λ + + +⋯+  representa: e
λ

 2! 3! n ! 

entonces: ∑p
i=0
i = e− λ eλ = 1

En esta distribución tenemos: E(x) = Vza(x) =λ o k = np

Su demostración sería:
∞ ∞
λX ∞
λX ∞
λX
E( X ) = ∑ X pX =
X =0
∑X
X =0 X!
e−λ = e−λ ∑ X
X =0 X!
= e−λ ∑
X =0 ( X − 1) !
para lograr que esa sumatoria sea eλ , saco un λ y queda: ,y

λ X −1
= e− λ λ ∑ = e − λ λ eλ = λ = np ⇒ E( X ) = λ = np = k
X =1 ( X − 1) !

∞ ∞
λX ∞
λX
ϕ X2 = ∑ ( X − m ) p X = ∑ ( X − m ) e − λ = e− λ ∑ ( X 2 − 2 Xm + m 2 ) =
2 2

X =0 X =0 X! X =0 X!
si distribuyo la sumatoria y ademas en forma auxiliar: X 2 = X ( X − 1) + X ;
queda:
 ∞ λX ∞
λX ∞
λX ∞
λX 
=e − λ  ∑ X ( X − 1) +∑X − ∑ 2 Xm + ∑ m2
 X =0 X ! X =0 X ! X = 0 X ! X =0 X ! 
simplifico y busco que cada sumatoria sea eλ , saco los λ necesarios; queda:
 ∞ λX ∞
λX ∞
λX ∞
λX 
= e− λ λ 2 ∑ + λ∑ − 2mλ ∑ + m2 ∑ 
 X =2 ( X − 2 )! X =1 ( X − 1) ! X =1 ( X − 1) ! X =0 X ! 

= e− λ λ 2 eλ + e− λ λ eλ − e − λ 2mλ eλ + e− λ m 2 eλ = λ 2 + λ − 2λ 2 + λ 2 = λ ⇒ ϕ X2 = λ = np = k
y por lo tanto: ϕ X = λ = np = k

Ejemplo de Poisson

En promedio, se reciben 2 llamados por hora en un cierto teléfono.


• Calcular la probabilidad de recibir como máximo 3 llamados en 2 horas.
• Calcular la probabilidad de no recibir ningún llamado en 90 minutos.

9
3
VARIABLES ALEATORIAS CONTINUAS

CONCEPTO

Si el recorrido de una VA es infinito, o sea que la variable puede tomar todos los valores incluidos en un intervalo, se
dice que la VA es continua.

FUNCIÓN DE DENSIDAD

Cuando hablábamos de función de probabilidad para una VA discreta definimos que cada valor de variable estaba
asociado con un número no negativo P(Xi) (probabilidad).

En el caso de una VA continua, por tener un recorrido infinito los valores que puede tomar la variable no son
contables, entonces las probabilidades pierden significado.

Es por ello que en lugar de usar una función definida para algunos valores de variable se utiliza una función f(X)
definida para todos los valores de la variable.

A esta función se la llama función de densidad.

Definición: X es una VA continua en el intervalo [a;b] si existe una f(X) ( función de densidad) que cumpla las
siguientes propiedades:

1) f (X ) ≥ 0 si X ∈ [a; b] (es decir, si X está comprendido dentro del intervalo)


b
2) ∫a
f ( X ) dx = 1 (llamada condición de cierre)
Xi
3) P( Xi ) = ∫ f ( X ) dx = 0 (es decir, la probabilidad de un valor puntual es cero)
Xi

4) f ( X ) = 0 para todo valor de la V.A.que no pertenezca al intervalo: [a; b]

FUNCIÓN DE DISTRIBUCIÓN

Al igual que en el caso de una VA discreta, la función de distribución permite calcular la probabilidad de que la VA
X tome valores menores o iguales a un valor determinado Xi.

Al ser continua, no puede ser calculada como una acumulación de probabilidades puntuales (caso de la VA discreta)
sino que debe ser expresada como acumulación de áreas “debajo de la curva”, de la siguiente forma:
Xi
F ( Xi ) = P( X ≤ Xi ) = ∫ f ( X )dx
−∞

Notar que f(X) (función de densidad) no es una probabilidad. Solamente cuando la función es integrada entre dos
límites, ella producirá una probabilidad que será el área debajo de la curva de la función entre los límites entre los
cuales se integra.

+∞
Como: F (+∞) = 1 será: ∫
−∞
f ( X )dx = 1

Es decir, el área total debajo de la curva de probabilidad vale siempre 1

Grafico de Función de densidad = la campana normal y Gráfico Función de distribución = Ojiva.

DIFERENCIA ENTRE DOS VALORES CONSECUTIVOS DE LA VARIABLE BINOMIAL, CUANDO EL NÚMERO DE


PRUEBAS TIENDE A INFINITO

En el esquema binomial, cuando p ≈ q la distribución es simétrica.

Además si “n” es muy grande, los valores de probabilidad de los puntos extremos son muy pequeños (asintóticos)

Recordando que en la Binomial E( X ) = np y que ϕ ( X ) = npq

3
Como introducción a la curva Normal
10
Si consideramos dos valores consecutivos de la VA (X + 1) y (X) y calculamos su diferencia en unidades estándar,
tenemos.
( X i + 1) − m1 X − m1
∆ = ( X i + 1) − ( X i ) = −
σX σX
( X i + 1) − m1 − X + m1
∆ = ( X i + 1) − ( X i ) =
ϕX
1 1
∆ = ( X i + 1) − ( X i ) = =
ϕX npq
1
cuando n → ∞ ; → 0 ∴ ( X i + 1) − ( X i ) → 0
npq
es decir que ∆ → 0 cuando n → ∞

Cuando el número de pruebas crece, y p es aproximadamente igual a q, la diferencia entre dos valores consecutivos
de la variable tiende a cero.

Esto nos lleva del campo discreto al campo continuo.

El gráfico de la función de frecuencias se hará cada vez más compacto y no se distinguirán valores consecutivos de
la variable

En este caso, ya no sumamos probabilidades (∑ p Xi = 1)


+∞
Sino que trabajamos con áreas debajo de la curva: ∫ −∞
f ( X )dx = 1

Resumiendo:
• En una VA Binomial, cuando p=q la distribución es simétrica
• Cuando “n” es muy grande, los valores de probabilidad en los extremos son pequeños, por ello la distribución es
asintótica a la abcisa
• El grafico de la función de frecuencia se hace cada vez más compacto
• Se pasa de una función discreta a una función continua.

DISTRIBUCIÓN NORMAL
En su demostración se parte de la expresión del Esquema Binomial: P( X = X i ) = CnX i . p X i .q n - X i
Por otra parte si se trabaja con los desvíos tenemos:
x = X − np ⇒ X = x + np
y n - X = n − x − np = n (1 − p ) − x = nq − x
Reemplazando en la expresión original nos queda:
n!
P( np + x ) = p np + x q nq − x
( np + x )!( nq − x )!
Considerando que “n” es lo suficientemente grande como para aplicar la aproximación de Moivre-Stirling a su factorial
y luego de operar matemáticamente con la función nos queda la siguiente expresión:
x2  x x3 
− −( q − p ) −
1  2 npq 6 n 2 p 2 q 2 
P( np + x ) ≅
2 npq  
e
2π npq

Cuando “n” es muy grande p=q, entonces la expresión queda:


x2
1 −
P( np + x ) ≅ e 2 npq

2π npq

11
Esta expresión se la puede considerar como una función de los desvíos, f(x) y si tenemos en cuenta las características
del esquema Binomial, se la puede reexpresar de la siguiente manera:
2
x2 1 x 
− −  
1 1 2  ϕ X 
f( x) = e 2 npq
= e ⇒ Funcion Normal de Gauss
2π npq 2π ⋅ ϕ X

Generalizando:
2
1  X −m 
−  
1 2  ϕ X 
f( X ) = e ⇒ Curva normal general de Gauss
2π ⋅ ϕ X

Finalmente, para el caso particular donde: m=0 y φ=1, nos queda:

X2
1 −
f( X ) = e 2
⇒ Curva normal reducida de Gauss

CARACTERÍSTICAS DE LA CURVA NORMAL


• Es una función que caracteriza variables aleatorias continuas
• Tiene forma de campana
• El recorrido de la variable es infinito
+∞
• El área debajo de la curva es la unidad, es decir: ∫−∞
f ( X )dx = 1
• Tiene E(x) = m y dispersión igual a ϕ
• Presenta un sólo máximo en X = m
• Presenta puntos de inflexión en X = ± ϕ
• Es asintótica respecto del eje de X
• Es simétrica respecto a la media
• La media coincide con el modo y con la mediana

FUNCIÓN DE DENSIDAD DE UNA NORMAL GENERAL


Cuando la VA tiene distribución Normal, es decir que X ≈ N (m; ϕ X )
2
1  x−µ 
−  
1  σX 
f ( x) = e 2
para − ∞ ≤ X ≤ +∞
σ 2π
Esta función depende de dos únicos parámetros: la E(x) y la dispersión.

FUNCIÓN DE DENSIDAD DE UNA NORMAL ESTÁNDAR

Si estandarizamos la VA tendremos una distribución Normal Standard Es decir X ~ N (0;1)


En este caso, tendremos la función de densidad de una Normal Estándar
Z2
1 −
f ( x) = e 2
para − ∞ ≤ Z ≤ +∞

PARA CALCULAR PROBABILIDADES


En este caso debemos calcular la función de distribución, que en general es:
Zi Z2
1 − 1
F( Zi ) = ∫e 2
dz para F( Zi ) = + φ( Z ) si Z i > 0
2π −∞
2
1
y F( Zi ) = − φ( Z ) si Z i < 0
2
Zi Z2
1 −
donde φ( Z ) representa el area: φ( Z ) = ∫e 2
dz y está tabulado
2π 0

12
VERIFICACIÓN DE ALGUNAS DE LAS CARACTERÍSTICAS DE LA NORMAL
X2
1 −
NOTA: Vamos a trabajar con la función Normal reducida: f 0( X ) = e 2
, simplemente por simplicidad de

sus cálculos.

MÁXIMO DE LA FUNCIÓN

Para determinar el máximo de una función se debe:

a) Encontrar el valor de la variable para el cual la primera derivada de la función se anula

X2
1 − 1
f '0 ( X ) = e 2
(−x) , porque: − 2 X = − X ,
2π 2
el valor que anula la derivada primera es para X=0

b) Comprobar que en ése punto la segunda derivada de la función, resulta negativa.

X2 X2
1 − 1 −
f ''( X ) = e ( − X )( − X ) +
2
e ( −1) , 2

2π 2π
porque: v ' u + vu ', derivada de la primera por la segunda,
mas la primera por la derivada de la segunda y
se puede reexpresar:
X2

(X − 1)
1 −
f ''( X ) = e 2 2

Para el valor de variable X=0, que anula la primera derivada, la segunda derivada vale –0.39894.

En conclusión:
• Para X = 0 la segunda derivada es negativa, por lo tanto hay un máximo en X = 0
• O sea, la ordenada del máximo corresponde al valor de variable que representa la E(x)
• Para X<0 la 1ª derivada es positiva y la función será creciente
• Para X>0 la 1ª derivada es negativa y la función será decreciente
• Esto significa que para todo valor de variable ubicado antes de la E(x) la función es creciente, y para todo valor
posterior la función es decreciente.
• El valor de la ordenada del máximo, en unidades estándar, es:
1
• f ( X =0) = − = −0,39894

PUNTOS DE INFLEXIÓN
Corresponden a los valores de variable que anulan la segunda derivada.
X2

(X − 1)
1 −
f ''( X ) = e 2 2


se anula cuando: ( X 2 − 1) = 0 ⇒ X = ±1
Quiere decir que la curva pasa de ser cóncava en convexa, en conclusión:
• Los puntos de inflexión se presentan en X = +1 y en X = -1
• Los valores de ordenada en dichos puntos son 0,24197
• La función es simétrica. Las ordenadas equidistantes de E(x) tienen la misma altura.

CALCULO DE ÁREAS DE LA CURVA NORMAL

Tenemos una VA “X” tal que: X~N(m;σ)


Sobre el eje de abcisas fijamos los valores: b, m, c, a,
Los cuales, estandarizados, se convierten en: Z2, 0, Z3, Z1
13
Distintas posibilidades:

1) P( m ≤ X ≤ a ) = P(0≤ Z ≤ Z1 ) = φ ( Z1 )
1
2) P( X ≤ a ) = P( Z ≤ Z1 ) = + φ ( Z1 )
2
3) P(b ≤ X ≤ a ) = P( Z2 ≤ Z ≤ Z1 ) = φ ( Z 2 ) + φ ( Z1 )
1
4) P( X > a ) = P( Z > Z1 ) = − φ ( Z1 )
2
5) P( c ≤ X ≤ a ) = P( Z3 ≤ Z ≤ Z1 ) = φ ( Z1 ) − φ ( Z 3 )
1
6) P( X ≤b ) = P( Z ≤ Z2 ) = − φ (Z 2 )
2
Ejemplo de Berenson

El tiempo para realizar una tarea “X” es una VA, con distribución normal, con esperanza igual a 75 segundos y
dispersión igual a 6 segundos, es decir: X ~ N(75;6)
a) Calcular la probabilidad de que se tarde a lo sumo 81 segundos ( X = 81 ; Z = 1)
b) Calcular la probabilidad de que se tarde más de 81 segundos
c) Calcular la probabilidad de que se tarde entre 62 y 81 segundos (X = 62 ; Z = –2,17)
1
a ) P( X ≤81) = P( Z ≤+1) = + φ ( Z = +1) = 0,50 + 0,34134 = 0,84134
2
1
b) P( X >81) = P( Z >+1) = − φ ( Z = +1) = 0, 50 − 0, 34134 = 0,15866
2
c) P(62≤ X ≤81) = P( −2,17 ≤ Z ≤+1) = φ ( Z = −2,17) + φ ( Z = +1) = 0, 4850 + 0, 34134 = 0,82634

Algunos valores particulares: Considerando la VA con m = 100 y disp = 10 X ~ N(100;10)


P(90≤ X ≤110) = P( −1≤ Z ≤+1) = φ (−1) + φ (+1) = 0, 34134 + 0,34134 = 0, 68268
P(80≤ X ≤120) = P( −2≤ Z ≤+2) = φ (−2) + φ (+2) = 0, 47725 + 0, 47725 = 0,9545
P(70≤ X ≤130) = P( −3≤ Z ≤+3) = φ (−3) + φ (+3) = 0, 49865 + 0, 49865 = 0,9973
Comparar los valores hallados con los resultados de la desigualdad de Tchebychev, recordando que ésta es para
variables discretas.

CALCULO DE ABCISAS

N (0;1)
1) P( m ≤ X ≤ a ) = 0, 34134 = P(0≤ Z ≤ Zi ) → φ ( Z i ) = 0,34134 → Zi = 1
2) P( X ≤ a ) = 0,97725 = 0, 50 + 0, 47725
P( X ≤ a ) = 0, 50 + φ ( Z i ) → Zi = 2
N (50;8)
3) P( X > a ) = 0,30 = 0, 50 − φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = +0, 52 → a = 0.52 *8 + 50 = 54,16
4) P( X ≤ a ) = 0,30 = 0,50 − φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = −0,52 → a = 45,84
5) P( X > a ) = 0, 70 = 0, 50 + φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = −0,52 → a = 45,84
6) P( X > a ) = 0, 20 = 0,50 − φ ( Z i ) → φ ( Z i ) = 0,30 → Z i = 0,84 → a = 56, 72
7) P( X ≤ a ) = 0, 20 = 0,50 − φ ( Z i ) → ⋮φ ( Z i ) = 0, 30 → Z i = −0,84 → a = 43, 28

14
RESUMEN DE LAS FORMULAS UTILIZADAS EN EL CAPÍTULO DE DISTRIBUCIONES DE PROBABILIDAD

Recordando que:

• se trata de la repetición de un hecho determinado, “ n” veces


• SIN IMPORTAR EL ORDEN DE APARICIÓN
• con distintas alternativas de éxito, “Xi”
• contando cuantas veces se repite, “p(XI)”
BINOMIAL
Variable discreta con probabilidad constante, dos alternativas excluyentes
X ∼ B ( n, p )
P( Xi|n , p ) = CnXi p Xi q n − Xi
E( X ) = np
ϕX2 = npq
np − q ≤ X i ≤ np + p...........( X i = Eventualidad más probable)
MULTINOMIAL
Variables discreta con probabilidad constante, mas de dos alternativas excluyentes
n!
P( X1 , X 2 , X 3 ,..., X t ) = p1n1 p2n2 p3n3 ... ptnt
X 1 ! X 2 ! X 3 !... X t !
E( X ) = npi
ϕX2 = npi (1 − pi )
i

HIPERGEOMETRICA
Variable discreta con probabilidad variable, tiene dos alternativas excluyentes
X ∼ Hi (n, N , N p )
Xi n − Xi
C Np C Nq
P( Xi|n , N , N p ) =
C Nn
Np
E( X ) = n
N
Np Nq N − n
ϕX2 = n
N N N −1
POISSON
Variable discreta con probabilidad constante, con "p" chica y "n" tiende a infinito
X ∼ Po(k )
k Xi −k
P( X i |k ) = e
Xi !
E( X ) = k = np = λ
ϕ X 2 = k = np = λ
NORMAL
Variable continua con probabilidad constante, se utiliza tabla para variable estandarizada

15
APROXIMACIONES
La distribución: Puede resolverse con: Con estas condiciones:
n→∞
P0 ( λ = np ) p→0
B ( n; p )
np = λ = k

(
N np; npq ) n→∞
p≅q

P0 ( λ ) (
N λ; λ ) n→∞
λ > 20

 Np 
B  n;  n<5%N
H ( n; N ; N p )  N 

 Np n→∞
N p Nq N − n 
N n ; n  Np 1
 N N N N − 1  ≅
  N 2

16

También podría gustarte