Distribuciones Elementales
Distribuciones Elementales
Distribuciones Elementales
DISTRIBUCIÓN BERNOUILLI
Supongamos un experimento aleatorio que puede tomar solamente dos resultados posibles: ÉXITO o FRACASO.
La V A es dicotómica: admite sólo dos resultados posibles.
Definiremos la siguiente variable aleatoria discreta que puede tomar los siguientes valores:
Diremos que esta variable aleatoria así definida tiene una “Distribución de Bernouilli”
También podemos decir que responde a un “Experimento o proceso Bernouilli”
Xi pi X i pi X i2 pi DESVÍO
2 2
Xi Xi Xi pi
2 2
X1 1 p p p 1-p=q q qp
2 2
X2 0 (1 − p ) =q 0 0 0-p=-p p pq
2 2
Σ=1 p p q p+ p q=
pq(q+p)=
pq
m1 m2
m1 = E( X ) = P( X1 ) = p
m2 = p
ϕX2 = m2 − m12
ϕX2 = p − p 2 = p − p· p = p(1 − p)
ϕX2 = pq
ϕX = pq
DISTRIBUCIÓN BINOMIAL
Una variable aleatoria seguirá una distribución Binomial, si se cumplen los siguientes supuestos que caracterizan a
este modelo probabilístico:
1. Se realizan “n” repeticiones de un experimento que tiene solamente dos posibles resultados, (prueba
dicotómica) los cuales se denominan éxito o fracaso
2. La probabilidad de que ocurra un éxito, que se simboliza con “p”, es la misma para todas y cada una de las
repeticiones del experimento que se lleven a cabo. (probabilidad de éxito constante)
3. Los experimentos se repiten de manera independiente (pruebas repetidas), de tal forma que los resultados
de experimentos sucesivos no influyen entre sí
4. La variable aleatoria toma “n+1” valores, mutuamente excluyentes y colectivamente exhaustivos (esto último
por la definición de VA, que la suma de Probabilidades suma la unidad)
5. El número de pruebas es de dos o más y “p+q=1” (si n=1 sería una Distribución Bernouilli)
Si estos supuestos se cumplen, la probabilidad de obtener “Xi” éxitos en “n” repeticiones del experimento, vendrá
dada por, algunos la llaman “s” (incluso en letra cursiva):
P( X = X i / n , p ) = CmX i p X i q n − X i
Recordando que en el proceso Bernouilli, la Esperanza es “p” y la Varianza es “pq“ y que la distribución Binomial
surge de repetir “n” veces un proceso Bernouilli, tendremos que:
1
si X ⇒ B(n, p )
E( X ) = np
ϕX2 = npq
ϕ X = npq
El nombre de “Binomial” proviene del hecho que la suma de las probabilidades asociadas a cada valor de la variable
n
es el desarrollo del binomio (p+q) = 1
Hay un ejercicio en la guía de trabajos prácticos, que presenta varios valores de “p” y de “n”, mediante su resolución
se aprecia al hacer los gráficos que: si “p” es aproximadamente igual a “q” la distribución es simétrica, y cambia esta
característica al cambiar “p”.
En dichos gráficos de frecuencias se aprecia que hay una (o dos) ordenadas máximas, lo que lleva al concepto de
Eventualidad más probable, en simbología:
np − q ≤ X i ≤ np + p
1
Binomial expresada en proporciones (Kazmier pág 107)
Si en lugar de expresar la VA Binomial como el “número de éxitos Xi”, lo hacemos en función de la “proporción de
éxitos fi” siendo esta “proporción” la nueva variable, la cual sigue siendo una VA Binomial discreta, pues sólo se
puede calcular para los valores “Xi” que toma la variable.
Xi
La nueva variable fi =
representa la proporción del número de éxitos en el total de las “n” pruebas, y esta nueva
n
variable también tiene distribución Binomial: f ⇒ B ( n, p ) .
Cuando se examinan variables cualitativas, la característica que se suele considerar es la proporción de éxitos.
2
Se define la proporción de éxitos como el cociente entre el número de éxitos obtenidos y el tamaño de la muestra .
Recordemos que en la binomial, la expresión para calcular la probabilidad de un determinado número de éxitos, la
esperanza (número promedio de éxitos) y la varianza son:
Ahora, en lugar de expresar la variable en términos del número Xi de éxitos, se convierte la variable en una
proporción de éxitos al dividirla entre “n”, el tamaño de la muestra.
Por lo tanto:
Xi 1 1 pq
f = ; E( f ) = E X = np = p ; ϕ (2f ) = 2
npq =
n
n
n n n
P( f = fi / n , p ) = CnX i p X i q n − X i
1
Esto tiene utilidad cuando se trabaja en Inferencia con proporciones.
2
Es el concepto de frecuencia relativa aplicado a la distribución binomial.
2
Simbología: p= probabilidad de éxito; (1-p)=q= probabilidad de “no éxito” y n= número de pruebas
Se puede construir un “Árbol de probabilidades” con la secuencia de 1ª, y 2ª extracción y con dichos datos, la tabla
de los pares de valores “Xi” “P(Xi)”
2
Xi P(Xi) Xi P(Xi) X P(Xi)
2 0 2
0 qq = q = 1p q 0 0
1 1 1 1 1 1
1 pq+qp = 2p q 2p q 2p q
2 2 0 2 0 2 0
2 pp = p = 1p q 2p q 4p q
2 2 2 2
Suma q +2pq+p = 2pq+2p =2p(q+p)= 2pq+4p =
2 2
(p+q) =1 2p 2pq+(2p)
“Binomial” m1 m2
Características:
∑ P ( Xi )
=q 2 + pq + p 2 = ( p + q ) 2 = 12
∑ P ( Xi ) =1
E( X ) = ∑ X i × P( X i ) = 2 p1 q1 + 2 p 2 q 0 = 2 p q1 + p1 = 2 p
E( X ) ⇒ E( X ) = np
m2 = 2 pq + 4 p 2 = 2 pq + (2 p ) 2
ϕX2 = m2 − (m1 ) 2 = 2 pq + (2 p)2 − (2 p) 2 = 2 pq
ϕX2 ⇒ ϕX2 = npq
Entonces:
• Enunciando: “Número de bolillas rojas que puedan obtenerse si de un bolillero que contiene 5R y 3N, si se
realizan tres extracciones sin reposición”
• Se construyó la tabla de probabilidad asociada a la VA “número de éxitos”
• Se verificó que la suma de las probabilidades es igual a la unidad
3
n!
p 0 q( 0 )
X n− X
P( X 0 ) X 0 !( n − X 0 ) ! n ! ( X 0 − 1) !( n − X 0 + 1) ! p
≥1 ⇒ ≥1 ⇒ ≥
P( X 0 −1) n!
p X 0 −1 q
( n − X 0 +1) n! X 0 ! ( n − X 0 )! q
( X 0 − 1)!( n − X 0 + 1)!
p n − X0 +1
≥1 ⇒ p ( n − X 0 + 1) ≥ qX 0 ⇒ pn − pX 0 + p ≥ qX 0
q X0
pn + p ≥ qX 0 + pX 0 ⇒ np + p ≥ X 0 ( p + q ) ⇒ np + p ≥ X 0 LIMITE SUPERIOR
n!
p X0 q ( 0 )
n− X
P( X 0 ) X 0 !( n − X 0 ) ! n ! ( X 0 + 1) ! ( n − X 0 − 1) ! q
≥1 ⇒ ≥1 ⇒ ≥
P( X 0 +1) n!
p ( X 0 +1) ( n − X 0 −1)
q n! X 0 ! ( n − X 0 ) ! p
( X 0 + 1)!( n − X 0 − 1)!
q X0 +1
≥ 1 ⇒ q ( X 0 + 1) ≥ p ( n − X 0 ) ⇒ qX 0 + q ≥ pn − pX 0
p n − X0
pn − q ≤ qX 0 + pX 0 ⇒ np − q ≤ X 0 ( p + q ) ⇒ np − q ≤ X 0 LIMITE INFERIOR
Auxiliar, según Moivre-Stirling cuando el factorial de “n” es muy grande se puede aproximar por la siguiente
expresión: n ! ≅ n e 2π n . n −n
Entonces podríamos escribir el cálculo de la función de probabilidad del esquema binomial de la siguiente manera:
n!
P( X 0 ) = CnX 0 p X 0 q n − X 0 = p X 0 qn− X 0 ≅
X 0 !( n − X 0 ) !
nn e− n 2π n ⋅ p X 0 q n − X 0
≅ ≅
(n− X 0 )
X 0 X 0 e− X 0 2π X 0 ⋅ ( n − X 0 ) e −( n − X 0 ) 2π ( n − X 0 )
X0 n− X 0
n X 0 nn − X 0 2π n ⋅ p X 0 qn− X 0 np nq n
≅ ≅
X 0 X0 2π X0 ⋅ (n − X0 )
( n− X 0 )
2π ( n − X 0 ) X0 n − X0 2π X 0 ( n − X 0 )
DISTRIBUCIÓN HIPERGEOMETRICA
Por ejemplo: el bolillero con 5 Rojas y 3 Negras: (5R y 3N), del cual se extraen 3 bolillas sin reposición.
¿Cuál será la probabilidad de que 2 de ellas sean Rojas?
4
p1roja p2roja q1negra
p1roja p3roja q1negra
p1roja p4roja q1negra
p1roja p5roja q1negra
... ... ...
Si hay 5 Rojas, el número de formas posibles de obtener 2 Rojas es: C52
Ahora, de las 3 bolillas que extraemos, deseamos que 2 sean Rojas y la tercera Negra, de tal forma que las
posibilidades de obtener Negra, de entre 3 que hay en el bolillero, son las combinaciones: C31
Luego, el total de combinaciones posibles para obtener 2 Rojas (y 1 negra) será: C52 ·C31
Lo cual representa los casos favorables
Los casos posibles (formas en que se pueden obtener 3 bolillas de un total de 8): C83
C53 C31
Por lo tanto, la probabilidad de obtener 2 Rojas al extraer 3 bolillas, será: P(2 R ) =
C83
A este tipo de distribución se le llama distribución Hipergeométrica.
X ≈ H ( n, N , N p )
Xi
C Np C Nn −−XiN p
P( Xi|n , N , Np ) =
CNn
Np
E( X ) = n = np
N
N p Nq N − n N −n
ϕX2 = n = npq
N N N −1 N −1
Donde Xi es el número de éxitos que se desea obtener, N es el tamaño de la población, n es el tamaño de la
muestra, y Np es el número de éxitos que es posible lograr.
Xi ≤ N p
Tener en cuenta que el valor Xi tiene sus límites:
Xi ≤ n
De lo que puede inferirse que el esquema tiene sus límites:
n ≤ N el tamaño de la muestra no puede ser mayor al tamaño de la población
X i ≤ N p el número de éxitos no puede superar a los individuos que cumplen con la condición estudiada
n − X i ≤ N q el número de fracasos no puede superar a los individuos que no cumplen con la condición
Corresponde a aquella distribución de más de dos sucesos, puede entenderse como una generalización de la
distribución Binomial.
n
Para varios sucesos: X1 X2 X3 ⋯ Xn ⇒ ∑X i =1
i =n
n
Con sus correspondientes probabilidades: p1 p2 p3 ⋯ pn ⇒ ∑pi =1
i =1
En función de estas condiciones la expresión del esquema Binomial se replantea de la siguiente manera:
5
n!
P( X 1, X 2 , X 3 ,⋯, X n ) = p X1 p X 2 p X 3 ⋯ p Xn
X 1 !* X 2 !* X 3 !* ⋯ * X n !
DISTRIBUCIÓN DE POISSON
Se debe a Poisson la obtención de una ley de probabilidad que da, con aproximación satisfactoria, el valor de la
probabilidad de ocurrencia de Xi éxitos en “n” pruebas repetidas con una probabilidad elemental “p” tan pequeña que
permita aceptar la hipótesis: np = K o λ .
n →∞
Siendo K una constante finita y positiva.
Partiendo de la probabilidad de presentación de “Xi” éxitos en “n” pruebas repetidas, (la Binomial), y siendo:
np = k o λ y n → ∞ ; se hacen los siguientes reemplazos:
K λ K λ
p= = y q = 1− = 1− y se desarrolla la fórmula de Poisson.
n n n n
Su demostración sería:
n− X
λ λ
X
n! n− X
P( X ) = C p q =X X
1 −
X !( n − X ) ! n
n
n
como n → ∞; reemplazamos n ! por su aproximacion
n− X
n n e− n 2π n λ λ
X
P( X ) ≅ 1 −
X !( n − X ) 2π ( n − X ) n
n− X −( n − X )
e n
Auxiliar:
nn = nn− X n X
−( n − X )
en e = eX
λ
n
n− X 1 −
λ
=
n
1 −
λ
X
n
1 −
n
n− X
X
(n − X )
n− X n− X
=n 1 −
n
X
2π ( n − X ) = 2π n 1 −
n
haciendo los reemplazos tenemos:
λX λ
n
n n− X
n X
2π n 1 −
nX n
P( X ) ≅ n− X
X λ
X
X
X ! n n − X 1 − eX 2π n 1 − 1 −
n n n
6
despues de simplificar veamos que queda:
λ
n
λX 1 −
P( X ) ≅ n
n− X
X λ
X
X! X
1 − e 1 − 1 −
X
n n n
Auxiliar:
1 1
n− X n− X + n −X +
X X X 2 X X 2
agupando las potencias de igual base 1 − 1 − = 1 − = 1 − 1 −
n n n n n
λ
n
y sabiendo que: 1 − = e − λ
n
la expresion queda definida como:
λX e− λ λX e−λ
P( X ) ≅ 1
≅ 1
X! −X + X! −X +
X 2 λ X 2 λ
n X X
X X −X X
1 − e 1 − 1 − e e 1 − 1 −
n n n n n
entonces si n → ∞, los cocientes por n → a 0; la expresion final queda:
λX
P( X ) ≅ e−λ
X!
Para: n→∞
p→0
np → λ
En muchos casos conocemos el número de éxitos, pero se torna difícil, y a veces, sin sentido, determinar el número
de fracasos o bien el número total de pruebas.
Por ejemplo: automóviles que pasan por una esquina. Se puede contar la cantidad de autos que pasan en un
determinado intervalo de tiempo, pero el número de autos que dejan de pasar no podrá ser calculado.
De la misma manera ocurre, por ejemplo, con el número de defectos en un rollo de cable. Se podrá anotar la cantidad
de defectos por metro que posee, pero se podrá anotar cuantos defectos no tiene.
Analizando estos ejemplos, se verifica la existencia de una variable “t” (un “continuo”) y que cuando dicho “continuo”
aumenta (tiende a infinito), la probabilidad de encontrar “éxito” tiende a aumentar.
Bortkiewicz, basándose en la exponencial de Poisson hizo deducciones muy interesantes con su aplicación a los
llamados fenómenos raros: que son aquellos que permiten afirmar con fundamento práctico que la
probabilidad de su presentación (p) es muy pequeña en un número (n) muy elevado de casos.
Fenómenos raros: suicidios, partos triples, incendios, accidentes, soldado del ejército prusiano, etc.
En estos casos, ignorándose (p) y (n), la media aritmética empírica (k) ( promedio estimado empírico, que puede
estimarse a partir de observaciones), permite obtener un valor aproximado k=np y calcular la probabilidad
aproximada de que el fenómeno se presente (Xi) veces mediante la expresión de Poisson:
K Xi − K
P( X i ) ≅ e
Xi !
Donde : p = k/n;
n = extensión del intervalo considerado;
p = frecuencia media de presentación de los éxitos por unidad de intervalo.
Xi = cantidad de éxitos que se presentan en el intervalo 0 < Xi < infinito
K Xi −K
P( X i ) = e donde: P( X i = 0) = e− K y si X i → ∞....P( X i ) = 0
Xi !
Lo importante es que el evento ocurre no como resultado de la repetición de experimentos, como en el caso de la
Binomial, sino debido a que se cumplen, aunque sea de manera aproximada, los siguientes supuestos:
1. Las veces que ocurre el evento en una cierta unidad de tiempo( o de área o de volumen) es independiente de
lo que ocurra en otra unidad de tiempo.
2. El número esperado de ocurrencias por unidad de tiempo (k) no se modifica con el paso del tiempo.
3. La probabilidad de que ocurran dos o más eventos en una unidad de tiempo específica es prácticamente
cero, en comparación con la probabilidad de que ocurra un solo evento
K Xi − K
El modelo probabilístico resultante es: P( X i ) ≅ e para Xi =0, 1, 2,...
Xi !
KAZMIER, nos dice que puede utilizarse la distribución de Poisson para determinar la probabilidad de que ocurra un
número determinado de eventos, cuando éstos ocurren en un continuo de tiempo o espacio,
Es similar al proceso Bernouilli, excepto que los eventos ocurren en ensayos u observaciones fijas. Solamente se
necesita conocer el número promedio a largo plazo de eventos para el tiempo o dimensión específica de interés. (k)
Como se supone que un proceso de Poisson es estacionario, se concluye que la media del proceso es siempre
proporcional a la longitud del continuo de tiempo o espacio. Es decir, si se conoce la media para una cierta longitud
de tiempo, se puede determinar la media para cualquier otro período que se requiera. Esto es importante, porque el
valor de “k” que se utiliza debe aplicarse al período de tiempo pertinente.
8
∞
λ2 λ3 λn
∑ pi = e−λ + λ e−λ +
i =0 2!
e−λ +
3!
e−λ + ⋯ +
n!
e− λ =
λ λ λ
2 3 n
= e− λ 1 + λ + + +⋯+ ,
2! 3! n!
λ2 λ3 λn
donde la sumatoria 1 + λ + + +⋯+ representa: e
λ
2! 3! n !
∞
entonces: ∑p
i=0
i = e− λ eλ = 1
Su demostración sería:
∞ ∞
λX ∞
λX ∞
λX
E( X ) = ∑ X pX =
X =0
∑X
X =0 X!
e−λ = e−λ ∑ X
X =0 X!
= e−λ ∑
X =0 ( X − 1) !
para lograr que esa sumatoria sea eλ , saco un λ y queda: ,y
∞
λ X −1
= e− λ λ ∑ = e − λ λ eλ = λ = np ⇒ E( X ) = λ = np = k
X =1 ( X − 1) !
∞ ∞
λX ∞
λX
ϕ X2 = ∑ ( X − m ) p X = ∑ ( X − m ) e − λ = e− λ ∑ ( X 2 − 2 Xm + m 2 ) =
2 2
X =0 X =0 X! X =0 X!
si distribuyo la sumatoria y ademas en forma auxiliar: X 2 = X ( X − 1) + X ;
queda:
∞ λX ∞
λX ∞
λX ∞
λX
=e − λ ∑ X ( X − 1) +∑X − ∑ 2 Xm + ∑ m2
X =0 X ! X =0 X ! X = 0 X ! X =0 X !
simplifico y busco que cada sumatoria sea eλ , saco los λ necesarios; queda:
∞ λX ∞
λX ∞
λX ∞
λX
= e− λ λ 2 ∑ + λ∑ − 2mλ ∑ + m2 ∑
X =2 ( X − 2 )! X =1 ( X − 1) ! X =1 ( X − 1) ! X =0 X !
= e− λ λ 2 eλ + e− λ λ eλ − e − λ 2mλ eλ + e− λ m 2 eλ = λ 2 + λ − 2λ 2 + λ 2 = λ ⇒ ϕ X2 = λ = np = k
y por lo tanto: ϕ X = λ = np = k
Ejemplo de Poisson
9
3
VARIABLES ALEATORIAS CONTINUAS
CONCEPTO
Si el recorrido de una VA es infinito, o sea que la variable puede tomar todos los valores incluidos en un intervalo, se
dice que la VA es continua.
FUNCIÓN DE DENSIDAD
Cuando hablábamos de función de probabilidad para una VA discreta definimos que cada valor de variable estaba
asociado con un número no negativo P(Xi) (probabilidad).
En el caso de una VA continua, por tener un recorrido infinito los valores que puede tomar la variable no son
contables, entonces las probabilidades pierden significado.
Es por ello que en lugar de usar una función definida para algunos valores de variable se utiliza una función f(X)
definida para todos los valores de la variable.
Definición: X es una VA continua en el intervalo [a;b] si existe una f(X) ( función de densidad) que cumpla las
siguientes propiedades:
FUNCIÓN DE DISTRIBUCIÓN
Al igual que en el caso de una VA discreta, la función de distribución permite calcular la probabilidad de que la VA
X tome valores menores o iguales a un valor determinado Xi.
Al ser continua, no puede ser calculada como una acumulación de probabilidades puntuales (caso de la VA discreta)
sino que debe ser expresada como acumulación de áreas “debajo de la curva”, de la siguiente forma:
Xi
F ( Xi ) = P( X ≤ Xi ) = ∫ f ( X )dx
−∞
Notar que f(X) (función de densidad) no es una probabilidad. Solamente cuando la función es integrada entre dos
límites, ella producirá una probabilidad que será el área debajo de la curva de la función entre los límites entre los
cuales se integra.
+∞
Como: F (+∞) = 1 será: ∫
−∞
f ( X )dx = 1
Además si “n” es muy grande, los valores de probabilidad de los puntos extremos son muy pequeños (asintóticos)
3
Como introducción a la curva Normal
10
Si consideramos dos valores consecutivos de la VA (X + 1) y (X) y calculamos su diferencia en unidades estándar,
tenemos.
( X i + 1) − m1 X − m1
∆ = ( X i + 1) − ( X i ) = −
σX σX
( X i + 1) − m1 − X + m1
∆ = ( X i + 1) − ( X i ) =
ϕX
1 1
∆ = ( X i + 1) − ( X i ) = =
ϕX npq
1
cuando n → ∞ ; → 0 ∴ ( X i + 1) − ( X i ) → 0
npq
es decir que ∆ → 0 cuando n → ∞
Cuando el número de pruebas crece, y p es aproximadamente igual a q, la diferencia entre dos valores consecutivos
de la variable tiende a cero.
El gráfico de la función de frecuencias se hará cada vez más compacto y no se distinguirán valores consecutivos de
la variable
Resumiendo:
• En una VA Binomial, cuando p=q la distribución es simétrica
• Cuando “n” es muy grande, los valores de probabilidad en los extremos son pequeños, por ello la distribución es
asintótica a la abcisa
• El grafico de la función de frecuencia se hace cada vez más compacto
• Se pasa de una función discreta a una función continua.
DISTRIBUCIÓN NORMAL
En su demostración se parte de la expresión del Esquema Binomial: P( X = X i ) = CnX i . p X i .q n - X i
Por otra parte si se trabaja con los desvíos tenemos:
x = X − np ⇒ X = x + np
y n - X = n − x − np = n (1 − p ) − x = nq − x
Reemplazando en la expresión original nos queda:
n!
P( np + x ) = p np + x q nq − x
( np + x )!( nq − x )!
Considerando que “n” es lo suficientemente grande como para aplicar la aproximación de Moivre-Stirling a su factorial
y luego de operar matemáticamente con la función nos queda la siguiente expresión:
x2 x x3
− −( q − p ) −
1 2 npq 6 n 2 p 2 q 2
P( np + x ) ≅
2 npq
e
2π npq
2π npq
11
Esta expresión se la puede considerar como una función de los desvíos, f(x) y si tenemos en cuenta las características
del esquema Binomial, se la puede reexpresar de la siguiente manera:
2
x2 1 x
− −
1 1 2 ϕ X
f( x) = e 2 npq
= e ⇒ Funcion Normal de Gauss
2π npq 2π ⋅ ϕ X
Generalizando:
2
1 X −m
−
1 2 ϕ X
f( X ) = e ⇒ Curva normal general de Gauss
2π ⋅ ϕ X
X2
1 −
f( X ) = e 2
⇒ Curva normal reducida de Gauss
2π
12
VERIFICACIÓN DE ALGUNAS DE LAS CARACTERÍSTICAS DE LA NORMAL
X2
1 −
NOTA: Vamos a trabajar con la función Normal reducida: f 0( X ) = e 2
, simplemente por simplicidad de
2π
sus cálculos.
MÁXIMO DE LA FUNCIÓN
X2
1 − 1
f '0 ( X ) = e 2
(−x) , porque: − 2 X = − X ,
2π 2
el valor que anula la derivada primera es para X=0
X2 X2
1 − 1 −
f ''( X ) = e ( − X )( − X ) +
2
e ( −1) , 2
2π 2π
porque: v ' u + vu ', derivada de la primera por la segunda,
mas la primera por la derivada de la segunda y
se puede reexpresar:
X2
(X − 1)
1 −
f ''( X ) = e 2 2
2π
Para el valor de variable X=0, que anula la primera derivada, la segunda derivada vale –0.39894.
En conclusión:
• Para X = 0 la segunda derivada es negativa, por lo tanto hay un máximo en X = 0
• O sea, la ordenada del máximo corresponde al valor de variable que representa la E(x)
• Para X<0 la 1ª derivada es positiva y la función será creciente
• Para X>0 la 1ª derivada es negativa y la función será decreciente
• Esto significa que para todo valor de variable ubicado antes de la E(x) la función es creciente, y para todo valor
posterior la función es decreciente.
• El valor de la ordenada del máximo, en unidades estándar, es:
1
• f ( X =0) = − = −0,39894
2π
PUNTOS DE INFLEXIÓN
Corresponden a los valores de variable que anulan la segunda derivada.
X2
(X − 1)
1 −
f ''( X ) = e 2 2
2π
se anula cuando: ( X 2 − 1) = 0 ⇒ X = ±1
Quiere decir que la curva pasa de ser cóncava en convexa, en conclusión:
• Los puntos de inflexión se presentan en X = +1 y en X = -1
• Los valores de ordenada en dichos puntos son 0,24197
• La función es simétrica. Las ordenadas equidistantes de E(x) tienen la misma altura.
1) P( m ≤ X ≤ a ) = P(0≤ Z ≤ Z1 ) = φ ( Z1 )
1
2) P( X ≤ a ) = P( Z ≤ Z1 ) = + φ ( Z1 )
2
3) P(b ≤ X ≤ a ) = P( Z2 ≤ Z ≤ Z1 ) = φ ( Z 2 ) + φ ( Z1 )
1
4) P( X > a ) = P( Z > Z1 ) = − φ ( Z1 )
2
5) P( c ≤ X ≤ a ) = P( Z3 ≤ Z ≤ Z1 ) = φ ( Z1 ) − φ ( Z 3 )
1
6) P( X ≤b ) = P( Z ≤ Z2 ) = − φ (Z 2 )
2
Ejemplo de Berenson
El tiempo para realizar una tarea “X” es una VA, con distribución normal, con esperanza igual a 75 segundos y
dispersión igual a 6 segundos, es decir: X ~ N(75;6)
a) Calcular la probabilidad de que se tarde a lo sumo 81 segundos ( X = 81 ; Z = 1)
b) Calcular la probabilidad de que se tarde más de 81 segundos
c) Calcular la probabilidad de que se tarde entre 62 y 81 segundos (X = 62 ; Z = –2,17)
1
a ) P( X ≤81) = P( Z ≤+1) = + φ ( Z = +1) = 0,50 + 0,34134 = 0,84134
2
1
b) P( X >81) = P( Z >+1) = − φ ( Z = +1) = 0, 50 − 0, 34134 = 0,15866
2
c) P(62≤ X ≤81) = P( −2,17 ≤ Z ≤+1) = φ ( Z = −2,17) + φ ( Z = +1) = 0, 4850 + 0, 34134 = 0,82634
CALCULO DE ABCISAS
N (0;1)
1) P( m ≤ X ≤ a ) = 0, 34134 = P(0≤ Z ≤ Zi ) → φ ( Z i ) = 0,34134 → Zi = 1
2) P( X ≤ a ) = 0,97725 = 0, 50 + 0, 47725
P( X ≤ a ) = 0, 50 + φ ( Z i ) → Zi = 2
N (50;8)
3) P( X > a ) = 0,30 = 0, 50 − φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = +0, 52 → a = 0.52 *8 + 50 = 54,16
4) P( X ≤ a ) = 0,30 = 0,50 − φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = −0,52 → a = 45,84
5) P( X > a ) = 0, 70 = 0, 50 + φ ( Z i ) → φ ( Z i ) = 0, 20 → Z i = −0,52 → a = 45,84
6) P( X > a ) = 0, 20 = 0,50 − φ ( Z i ) → φ ( Z i ) = 0,30 → Z i = 0,84 → a = 56, 72
7) P( X ≤ a ) = 0, 20 = 0,50 − φ ( Z i ) → ⋮φ ( Z i ) = 0, 30 → Z i = −0,84 → a = 43, 28
14
RESUMEN DE LAS FORMULAS UTILIZADAS EN EL CAPÍTULO DE DISTRIBUCIONES DE PROBABILIDAD
Recordando que:
HIPERGEOMETRICA
Variable discreta con probabilidad variable, tiene dos alternativas excluyentes
X ∼ Hi (n, N , N p )
Xi n − Xi
C Np C Nq
P( Xi|n , N , N p ) =
C Nn
Np
E( X ) = n
N
Np Nq N − n
ϕX2 = n
N N N −1
POISSON
Variable discreta con probabilidad constante, con "p" chica y "n" tiende a infinito
X ∼ Po(k )
k Xi −k
P( X i |k ) = e
Xi !
E( X ) = k = np = λ
ϕ X 2 = k = np = λ
NORMAL
Variable continua con probabilidad constante, se utiliza tabla para variable estandarizada
15
APROXIMACIONES
La distribución: Puede resolverse con: Con estas condiciones:
n→∞
P0 ( λ = np ) p→0
B ( n; p )
np = λ = k
(
N np; npq ) n→∞
p≅q
P0 ( λ ) (
N λ; λ ) n→∞
λ > 20
Np
B n; n<5%N
H ( n; N ; N p ) N
Np n→∞
N p Nq N − n
N n ; n Np 1
N N N N − 1 ≅
N 2
16