1.2 Distribuciones Muestrales Y Teorema Del Limite Central

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

4

UNIVERSIDAD TECNOLÓGICA METROPOLITANA


DEPARTAMENTO DE ESTADÍSTICA Y ECONOMETRÍA

INFERENCIA ESTADÍSTICA

1.2 Distribuciones Muestrales

Para algunas variables aleatorias en particular existen distribuciones de


probabilidad asociadas a la distribución Normal, Chi. Cuadrado, t-Student y
Fisher, cuyas aplicaciones veremos posteriormente. Lo importante es que
conozcamos su comportamiento probabilístico.

Distribución Normal
Las tablas de distribución Normal que conocemos entregan la probabilidad
acumulada hasta un determinado valor x, es decir

𝑃(𝑋 ≤ 𝑥)

Distribución Normal Estándar


Las tablas de distribución Normal Estándar cumplen que 𝜇 = 0 y que 𝜎 2 = 1
y entregan la probabilidad acumulada hasta un determinado valor z, es decir

𝑃(𝑍 ≤ 𝑥)

PROFESORA PAMELA TORO NÚÑEZ


5

Distribución t - Student
Esta distribución es muy similar a la distribución Normal Estándar, ya que
también es simétrica en torno al cero, tiene forma de campana, pero en los
extremos tiene mayor probabilidad (colas más pesadas). A diferencia de las
demás, depende de grados de libertad, que comúnmente están asociados a
los tamaños muestrales

Distribución Chi-Cuadrado

Esta distribución, a diferencia de la Normal y de la t-Student no es simétrica,


y solo toma valores positivos. También depende de grados de libertad, los
que transforman la forma de la curva.

PROFESORA PAMELA TORO NÚÑEZ


6

Distribución F de Fisher o F-Snedecor

Esta distribución también es asimétrica y solo toma valores positivos. A


diferencia de las otras dos, ésta depende de dos grados de libertad, y en
nuestras tablas de probabilidad, tanto como en Excel podemos encontrar su
probabilidad acumulada 𝑃(𝐹 ≤ 𝑓)

Ahora, estas distribuciones de probabilidad están asociadas con ciertas


estadísticas muestrales

PROFESORA PAMELA TORO NÚÑEZ


7

Sean 𝑋1, , 𝑋2 , … , 𝑋𝑛 variables que componen una muestra aleatoria


proveniente de una población en donde la característica de interés 𝑋 tiene
distribución 𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, 𝜎 2 ), entonces

𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 ~ 𝑁𝑜𝑟𝑚𝑎𝑙(𝑛𝜇, 𝑛𝜎 2 )

Esto porque, al aplicar la propiedad que indica que la suma de variables


aleatorias independientes que tienen distribución Normal, ésta también
distribuye Normal (propiedad reproductiva). Los valores de la Esperanza y
Varianza se obtienen al aplicar las propiedades respectivas.

Además, la combinación lineal de una variable distribuida Normal, también


sigue esa distribución. Entonces

𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 𝜎2
𝑋̅ = ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, )
𝑛 𝑛

Esto porque
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 𝑛𝜇
𝐸(𝑋̅) = 𝐸 [ ] = ∑ 𝐸(𝑋𝑖 ) = =𝜇
𝑛 𝑛 𝑛
𝑖=1
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 1
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∑ 𝑉𝑎𝑟(𝑋𝑖 ) = 2 𝑛𝜎 2
𝑛 𝑛 𝑛
𝑖=1
2
𝜎
=
𝑛

Ahora, como
𝜎2
𝑋̅ ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, )
𝑛

podemos aplicar la estandarización

PROFESORA PAMELA TORO NÚÑEZ


8

𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍= = 𝜎 ~ 𝑁(0,1)
2 ⁄ 𝑛
√𝜎 √
𝑛

Pero si la varianza poblacional 𝜎 2 es desconocida y reemplazada por su


estimador

2
∑𝑛𝑖=1(𝑥𝑖 − 𝑋̅)2
𝑆 =
𝑛−1
Entonces

𝑋̅ − 𝜇
~ 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 (𝑛 − 1)
𝑆⁄
√𝑛

Respecto de la varianza muestral, es posible demostrar que

(𝑛 − 1)𝑆 2 ∑𝑛𝑖=1(𝑥𝑖 − 𝑋̅)2


2
= 2
~ 𝜒 2 (𝑛 − 1)
𝜎 𝜎

PROFESORA PAMELA TORO NÚÑEZ


9

Teorema del Límite Central


El teorema del límite central es un teorema fundamental de probabilidad y
estadística. El teorema describe la distribución de la media de una muestra
aleatoria proveniente de una población con varianza finita. Cuando el
tamaño de la muestra es lo suficientemente grande, la distribución de las
medias sigue aproximadamente una distribución normal. El teorema se
aplica independientemente de la forma de la distribución de la población, ya
sea con distribuciones de probabilidad discretas o continuas. Muchos
procedimientos estadísticos comunes requieren que los datos sean
aproximadamente normales. El teorema de límite central le permite aplicar
estos procedimientos útiles a poblaciones que son considerablemente no
normales. El tamaño que debe tener la muestra depende de la forma de la
distribución original. Si la distribución de la población es simétrica, un
tamaño de muestra de 5 podría producir una aproximación adecuada. Si la
distribución de la población es considerablemente asimétrica, es necesario
un tamaño de muestra más grande. Por ejemplo, la distribución de la media
puede ser aproximadamente normal si el tamaño de la muestra es mayor
que 50. Las siguientes gráficas muestran ejemplos de cómo la distribución
afecta el tamaño de la muestra que se necesita.

Además, el teorema es cierto independientemente de la distribución que


sigan las variables aleatorias que se sumen (no importa si son exponenciales,
binomiales, etc.). Lo único que se necesita es saber su media y su varianza.

El teorema está definido de acuerdo a lo siguiente:

Sean 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 un conjunto de variables aleatorias independientes,


no necesariamente todas con la misma esperanza y varianza, entonces se
tiene que si 𝑛 → ∞, entonces

𝑆 = 𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 ≈ 𝑁𝑜𝑟𝑚𝑎𝑙( 𝐸(𝑆), 𝑉𝑎𝑟(𝑆) )

PROFESORA PAMELA TORO NÚÑEZ


10

Donde
𝑛

𝐸(𝑆) = 𝐸(𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 ) = ∑ 𝐸(𝑋𝑖 )


𝑖=1

Y además
𝑛

𝑉𝑎𝑟(𝑆) = 𝑉𝑎𝑟(𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 ) = ∑ 𝑉𝑎𝑟(𝑋𝑖 )


𝑖=1

Ahora, podemos estandarizar


𝑆 − 𝐸(𝑆)
≈ 𝑁(0,1)
√𝑉𝑎𝑟(𝑆)

Pero esto también lo podemos utilizar para el promedio de variables


aleatorias:
𝑆 𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛
𝑋̅ = =
𝑛 𝑛

Entonces
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝐸(𝑋̅) = 𝐸 [ ] = ∑ 𝐸(𝑋𝑖 )
𝑛 𝑛
𝑖=1
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∑ 𝑉𝑎𝑟(𝑋𝑖 )
𝑛 𝑛
𝑖=1

Por lo tanto
𝑋̅ − 𝐸(𝑋̅)
𝑋̅ ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 [𝐸(𝑋̅), 𝑉𝑎𝑟(𝑋̅)] ⟹ ≈ 𝑁(0,1)
√𝑉𝑎𝑟(𝑋̅)

PROFESORA PAMELA TORO NÚÑEZ


11

Ahora, si todas las variables aleatorias tienen la misma distribución de


probabilidad, la expresión se simplifica un poco ya que

𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝐸(𝑋̅) = 𝐸 [ ] = 𝑛𝐸(𝑋) = 𝐸(𝑋)
𝑛 𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 𝑉𝑎𝑟(𝑋)
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∙ 𝑛 𝑉𝑎𝑟(𝑋) =
𝑛 𝑛 𝑛

Por lo tanto, podemos considerar que

𝑉𝑎𝑟(𝑋) 𝑋̅ − 𝐸(𝑋)
𝑋̅ ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 [𝐸 (𝑋), ] ⟹ ≈ 𝑁(0,1)
𝑛 𝑉𝑎𝑟(𝑋)

𝑛

Que la distribución de las medias muestrales se parezca a una normal es


tremendamente útil. Porque la distribución normal es muy fácil de aplicar
para realizar contrastes de hipótesis y construcción de intervalos de
confianza. En estadística que una distribución sea Normal es bastante
importante, dado que muchos análisis estadísticos requieren este tipo de
distribución. Además, el TCL nos permitirá hacer inferencia sobre la media
poblacional a través de la media muestral. Y esto es de gran utilidad cuando
por falta de medios no podemos recolectar datos de toda una población

Ejemplo: (de la vida real)


Zenón de Citium era un famoso filósofo griego que decía tardar, en promedio
1212 minutos en comer un jabalí con una desviación estándar de 3. ¿Cuál
sería la probabilidad de que este hombre tardase menos de 99 horas y media
en comer 50 jabalíes?

Acá sabemos que hay una variable aleatoria X que mide el tiempo en que
tarda en comer. E(X) = 12 Var(X) = 32. Queremos saber cuánto tardará en
comer 50 jabalíes, por lo tanto tenemos 50 variables aleatorias (no sabemos
su distribución de probabilidad) pero sí tienen la misma esperanza y varianza.

PROFESORA PAMELA TORO NÚÑEZ


12

Definamos Y: tiempo (minutos) que tarda en comer los 50 jabalíes.


E(Y) = E(50X) = 50*12 = 600 y Var(Y) = Var(50X) = 2 500*Var(X) = 22 500

Entonces
𝑌−𝐸(𝑌) 570−600
𝑃(𝑌 < 570) = 𝑃 ( < ) = 𝑃(𝑍 < −0.2)
√𝑉𝑎𝑟(𝑌) √22500

Ahora, respecto de la teoría de probabilidad, esto tiene una aplicación muy


importante, sobre todo en distribuciones de probabilidad que no son
continuas.

Aplicación en la Distribución Bernoulli

En esta distribución la variable aleatoria tome el valor 1 si ocurre un evento


denominado éxito, y 0 si no. La probabilidad de éxito está dada por el
parámetro p. Supongamos que tomamos una muestra lo suficientemente
grande de variables aleatorias con esta distribución, entonces

𝑆 = 𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 corresponderá a la suma de casos de éxito en


𝑆
la muestra, y por lo tanto equivale a la proporción de éxitos en la muestra.
𝑛
𝑆
Podemos probar que 𝑝̂ = es el estimador máximo verosímil del parámetro
𝑛
p de la distribución Bernoulli. Además, sabemos que si

𝑋~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝) 𝐸(𝑋) = 𝑝 𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝)

Por lo tanto,

𝑆 𝑝(1 − 𝑝) 𝑝̂ − 𝑝
𝑝̂ = ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝑝, ) ⟹ ≈ 𝑁(0,1)
𝑛 𝑛
√𝑝(1 − 𝑝)
𝑛

PROFESORA PAMELA TORO NÚÑEZ

También podría gustarte