Estimacion - 4.1
Estimacion - 4.1
Estimacion - 4.1
La estimación de un parámetro involucra el uso de los datos muestrales en conjunción con alguna estadística.
Existen dos formas de llevar a cabo lo anterior: La estimación puntual y la estimación por intervalos
En la estimación puntual se busca un estimador que, con base en los datos muestrales, de origen a una
estimación univaluada del valor del parámetro y que recibe el nombre de estimador puntual.
En la estimación por intervalos, se determina un intervalo en el que, en forma probable, se encuentra el valor
del parámetro, este intervalo recibe el nombre de intervalo de confianza estimado.
• ¿Cuáles son los criterios para juzgar cuándo un estimador es bueno o es malo?
Ejemplo:
Suponga que un grupo de personas se encuentra al tanto del volumen de ventas y adquisiciones de tres
comerciante (A, B y C) quienes compiten en el mismo mercado. Como el inventario es siempre un aspecto
importante en los negocios, cada uno de estos comerciantes predice la demanda mensual de sus productos y, con
base en ésta, realiza las adquisiciones necesaria. Supóngase que se determina la diferencia entre la demanda real
y esperada para varios mese y con base en esto se obtienen las distribuciones de frecuencia que se muestran en la
siguiente figura.
Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de tamaño n proveniente de una población con función de densidad
de probabilidad 𝑓 𝑋; 𝜃 y sea 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) cualquier estadística. El problema es encontrar una
función 𝑔(. ) que sea la que proporcione la mejor estimación de 𝜃.
Definición 4.1. Sea T cualquier estimador de un parámetro desconocido 𝜃. Se define el Error Cuadrático
Medio de (ECM) de T como el valor esperado del cuadrado de la diferencia entre T y 𝜃.
Definición 4.2. Se dice que la estadística 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) es un estimador insesgado del parámetro 𝜃,
si 𝐸 𝑇 = 𝜃 para todos los valores posibles de 𝜃.
Ejemplo 1: Se demostró que, sin importar la distribución de la población de interés, 𝐸 𝑋 = 𝜇 por lo tanto
𝑋 es un estimador insesgado de la media poblacional 𝜇 para todos los valores de 𝜇.
Ejemplo 2. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de alguna distribución con función de densidad de
probabilidad no especificada, tal que 𝐸 𝑋𝑖 = 𝜇 𝑦 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2 para toda 𝑖 = 1,2, … , 𝑛 , entonces
Es razonable esperar que un buen estimador de un parámetro 𝜃 sea cada vez mejor conforme crece el
tamaño de la muestra. Esto es, conforme la información en una muestra aleatoria se vuelve más completa,
la distribución de muestreo de un buen estimador se encuentra cada vez más concentrada alrededor del
parámetro 𝜃.
Definición 4.3. Sea T el estimador de un parámetro 𝜃, y sea 𝑇1 , 𝑇2 , … , 𝑇𝑛 una sucesión de estimadores que
representa a T con base en muestras de tamaño 1,2,…,n, respectivamente. Se dice que T es un estimador
consistente para 𝜃 si
lim 𝑃 |𝑇𝑛 − 𝜃| ≤ 𝜀 = 1 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝜃 𝑦 𝜀 > 0
𝑛→∞
𝑃
(Convergencia en probabilidad 𝑇𝑛 → 𝜃)
𝑃 |𝑋 − 𝜇| < 𝑘𝜎 ≥ 1 − 1Τ𝑘 2
O
𝑃 |𝑋 − 𝜇| ≥ 𝑘𝜎 ≤ 1Τ𝑘 2
Para cualquier 𝑘 ≥ 0.
Teorema 4.2. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝐸 𝑋 = 𝜇 𝑦 𝑉𝑎𝑟 𝑋 = 𝜎 2 < ∞. Entonces,
σ𝑛𝑖=1 𝑋𝑖
𝑋𝑛 =
𝑛
Es un estimador consistente de 𝜇.
Demostración:
(Ver trabajo en el pizarrón )
Ejemplo: Considérese el proceso de selección de una muestra aleatoria de alguna función de densidad de
probabilidad que tiene una varianza conocida de 𝜎 2 = 10, pero con una media 𝜇 desconocida. ¿Cuál debe
ser el tamaño de la muestra para que la media 𝑋𝑛 se encuentre dentro de un intervalo igual a dos unidades
de la media poblacional con una probabilidad de, por lo menos, 0.9?
Solución.
𝐸𝐶𝑀 𝑇 = 𝑉𝑎𝑟(𝑇)
Puesto que es deseable que la varianza de un estimador se lo más pequeña posible, debe buscarse uno en la clase
de estimadores insesgados, si es que existe, que tenga varianza mínima para todos los valores posibles de 𝜃. Este
estimador recibe el nombre de Insesgado de varianza mínima.
Definición 4.4. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución cuya función de densidad de
probabilidad es 𝑓 𝑋; 𝜃 . Sea la estadística 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un estimador de 𝜃 tal que 𝐸 𝑇 = 𝜃 y la
𝑉𝑎𝑟(𝑇) es menor que la varianza de cualquier otro estimador insesgado de 𝜃 para todos los posibles valores de 𝜃.
Se dice entonces que T es un estimador insesgado de varianza mínima de 𝜃.
La varianza de un estimador insesgado es la cantidad más importante para decidir que tan bueno es el estimador
para estimar un parámetro 𝜃.
Se dice que 𝑇1 es un estimador más eficiente de 𝜃 que 𝑇2 , si 𝑉𝑎𝑟 𝑇1 ≤ 𝑉𝑎𝑟 𝑇2 𝑦𝑉𝑎𝑟 𝑇1 < 𝑉𝑎𝑟 𝑇2 para
algún 𝜃.
𝑉𝑎𝑟(𝑇1 )
Eficiencia relativa de 𝑇2 con respecto a 𝑇1 ,
𝑉𝑎𝑟(𝑇2 )
𝐸𝐶𝑀(𝑇1 )
𝐸𝐶𝑀(𝑇2 )
Si son insesgados.
𝜏´(𝜃) 2
𝑉𝑎𝑟(𝑇) ≥ 2
𝜕𝑙𝑛𝑓 𝑋; 𝜃
𝑛𝐸
𝜕𝜃
Sin embargo, lo anterior no necesariamente implica que la varianza de un estimador insesgado de varianza
mínima de 𝜃 tenga que ser igual al limite inferior de Cramér-Rao. En otras palabras, es posible encontrar un
estimador insesgado de 𝜃 que tenga la varianza más pequeña posible entre todos los estimadores insesgados de
𝜃, para cuyas varianzas son más grandes que la cota inferir de Crámer-Rao.
𝑒 −𝜆 𝜆𝑥
𝑃 𝑋, 𝜆 =
𝑥!
Obtener el estimador eficiente de 𝜆.
Solución
(Ver trabajo en el pizarrón)