1.2 Distribuciones Muestrales Y Teorema Del Limite Central
1.2 Distribuciones Muestrales Y Teorema Del Limite Central
1.2 Distribuciones Muestrales Y Teorema Del Limite Central
INFERENCIA ESTADÍSTICA
Distribución Normal
Las tablas de distribución Normal que conocemos entregan la probabilidad
acumulada hasta un determinado valor x, es decir
𝑃(𝑋 ≤ 𝑥)
𝑃(𝑍 ≤ 𝑥)
Distribución t - Student
Esta distribución es muy similar a la distribución Normal Estándar, ya que
también es simétrica en torno al cero, tiene forma de campana, pero en los
extremos tiene mayor probabilidad (colas más pesadas). A diferencia de las
demás, depende de grados de libertad, que comúnmente están asociados a
los tamaños muestrales
Distribución Chi-Cuadrado
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 ~ 𝑁𝑜𝑟𝑚𝑎𝑙(𝑛𝜇, 𝑛𝜎 2 )
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 𝜎2
𝑋̅ = ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, )
𝑛 𝑛
Esto porque
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 𝑛𝜇
𝐸(𝑋̅) = 𝐸 [ ] = ∑ 𝐸(𝑋𝑖 ) = =𝜇
𝑛 𝑛 𝑛
𝑖=1
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 1
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∑ 𝑉𝑎𝑟(𝑋𝑖 ) = 2 𝑛𝜎 2
𝑛 𝑛 𝑛
𝑖=1
2
𝜎
=
𝑛
Ahora, como
𝜎2
𝑋̅ ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, )
𝑛
𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍= = 𝜎 ~ 𝑁(0,1)
2 ⁄ 𝑛
√𝜎 √
𝑛
2
∑𝑛𝑖=1(𝑥𝑖 − 𝑋̅)2
𝑆 =
𝑛−1
Entonces
𝑋̅ − 𝜇
~ 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 (𝑛 − 1)
𝑆⁄
√𝑛
Donde
𝑛
Y además
𝑛
Entonces
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝐸(𝑋̅) = 𝐸 [ ] = ∑ 𝐸(𝑋𝑖 )
𝑛 𝑛
𝑖=1
𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∑ 𝑉𝑎𝑟(𝑋𝑖 )
𝑛 𝑛
𝑖=1
Por lo tanto
𝑋̅ − 𝐸(𝑋̅)
𝑋̅ ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 [𝐸(𝑋̅), 𝑉𝑎𝑟(𝑋̅)] ⟹ ≈ 𝑁(0,1)
√𝑉𝑎𝑟(𝑋̅)
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1
𝐸(𝑋̅) = 𝐸 [ ] = 𝑛𝐸(𝑋) = 𝐸(𝑋)
𝑛 𝑛
𝑋1 + 𝑋2 + 𝑋3 + ⋯ + 𝑋𝑛 1 𝑉𝑎𝑟(𝑋)
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 [ ] = 2 ∙ 𝑛 𝑉𝑎𝑟(𝑋) =
𝑛 𝑛 𝑛
𝑉𝑎𝑟(𝑋) 𝑋̅ − 𝐸(𝑋)
𝑋̅ ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 [𝐸 (𝑋), ] ⟹ ≈ 𝑁(0,1)
𝑛 𝑉𝑎𝑟(𝑋)
√
𝑛
Acá sabemos que hay una variable aleatoria X que mide el tiempo en que
tarda en comer. E(X) = 12 Var(X) = 32. Queremos saber cuánto tardará en
comer 50 jabalíes, por lo tanto tenemos 50 variables aleatorias (no sabemos
su distribución de probabilidad) pero sí tienen la misma esperanza y varianza.
Entonces
𝑌−𝐸(𝑌) 570−600
𝑃(𝑌 < 570) = 𝑃 ( < ) = 𝑃(𝑍 < −0.2)
√𝑉𝑎𝑟(𝑌) √22500
Por lo tanto,
𝑆 𝑝(1 − 𝑝) 𝑝̂ − 𝑝
𝑝̂ = ≈ 𝑁𝑜𝑟𝑚𝑎𝑙 (𝑝, ) ⟹ ≈ 𝑁(0,1)
𝑛 𝑛
√𝑝(1 − 𝑝)
𝑛