Propiedades de Los Estimadores
Propiedades de Los Estimadores
Propiedades de Los Estimadores
Estimación
October 2, 2023
Estadı́stica inferencial
Estimación de parámetros
Definición
Decimos que la colección X1 , X2 , . . . , Xn es una muestra aleatoria,
si dichas variables aleatorias son independientes e identicamente
distribuidas, es decir, con la misma función de densidad.
Función de densidad conjunta
Parámetro
Un parámetro θ es aquel valor que describe, total o parcialmente,
la función de densidad de la variable aleatoria X estudiada en la
población.
Ejemplos:
▶ Si X ∼ Exp(2) su función de densidad está completamente
determinada
fX (x) = 2e −2x I[0,∞) (x)
▶ Los parámetros de la distribución Normal son µ y σ. Si
X ∼ N(µ = 150, σ 2 ) su función de densidad esta parcialmente
determinada
1 (x−150)2
fX (x) = √ e − 2σ
2πσ
Parámetros, estadı́sticas y estimadores
Espacio parametral
Al conjunto de todos los posibles valores de un parámetro de una
distribución de probabilidad se le llama espacio parametral y se le
denota con Θ
▶ Para la distribución Ber (θ), Θ = (0, 1)
▶ Para la distribución Bin(k, p), el parámetro es el vector (k, p)
y el espacio parametral es Θ = 1, 2, 3, . . . × (0, 1)
Parámetros, estadı́sticas y estimadores
Estadı́stica
Una estadı́stica es cualquier función de la muestra
⃗ = (X1 , X2 , . . . , Xn ) que no contiene cantidades desconocidas (p.
X
ej. los parámetros).
Ejemplos:
▶ T1 (X ) = X1 +X2 +···+Xn
n
▶ T2 (X ) = max(X1 , X2 , . . . , Xn )
√
▶ T3 (X ) = n X1 X2 · · · Xn
▶ T4 (X ) = Xn
Parámetros, estadı́sticas y estimadores
Estimador/estimación
Una estadı́stica θ̂ empleada para estimar el valor de un parámetro
desconocido θ recibe el nombre de estimador.
Una estimación de θ, es el valor especı́fico θ̂(x1 , x2 , · · · , xn ) = θ̂0
obtenido a partir de los datos muestrales.
Métodos de estimación
Momento poblacional
Sea k ∈ R. El k-ésimo momento de una variable aleatoria X , si
existe, es el número E (X k ).
Momento muestral
Sea k ∈ R. El k-ésimo momento de una muestra aleatoria
1 Pn
X1 , X2 , · · · Xn es la variable aleatoria n i=1 Xik .
Método de momentos
E (X ) = µ y E (X 2 ) = σ 2 + µ2
µ̂ = X̄
n
2 2 1X 2
σ̂ + µ̂ = Xi
n
i=1
Ejemplo
Sea X1 , X2 , · · · Xn muestra aleatoria de la variable X ∼ N(µ, σ 2 ).
Sabemos que
E (X ) = µ y E (X 2 ) = σ 2 + µ2
µ̂ = X̄
n
2 2 1X 2
σ̂ + µ̂ = Xi
n
i=1
Entonces
µ̂ = X̄
n n
1 X 1X n−1 2
σ̂ 2 = Xi2 − X̂ 2 = (Xi − X̂ )2 = S
n n n
i=1 i=1
Ejemplo 2
Sea X ∼ Unif (−θ, θ), donde θ > 0.
Función de verosimilitud
La función de verosimilitud de un vector aleatorio (X1 , . . . , Xn ),
cuya distribución depende de un parámetro θ, se define como la
función de densidad o de probabilidad conjunta
Log-verosimilitud
Al logaritmo natural de la función de verosimilitud se le conoce
como función de log-verosimilitud y se denota como l(θ)
l(θ) = ln{L(θ)}
Ejemplo
La función de verosimilitud es
= θn e −θnX̄
La log-verosimilitud es
Función de verosimilitud y
Estimador máximo verosı́mil para τ (θ)
La función de verosimilitud asociada a τ (θ), una función
parametral, se define de la forma siguiente: si η = τ (θ)
Además
L(θ̂) = sup L(θ) = L∗ (τ (θ̂))
{θ|τ (θ)=τ (θ̂)}
Entonces η̂ = τ (θ̂)
Ejemplo
E (θ̂) = θ
Ejemplo
Sea X1 , X2 , X3 una muestra aleatoria de tamaño n = 3 de la
distribución Poisson(λ), con λ > 0 desconocida.
1. λ̂1 = X1
X1 +2X2
2. λ̂2 = 3
X1 +2X2 +3X3
3. λ̂3 = 6
X(1) +X(2) +X(3)
4. λ̂3 = 3
Propiedades de los estimadores
Ejemplo
Sea X1 , X2 , . . . , Xn una muestra aleatoria de la distribución
Unif (a, b).
a+b
1. X̄ es un estimador de la función 2
b−a
2. S 2 es un estimador de la función parametral 12
Funciones de estimadores insesgados
Observación: En general E (g (θ)) ̸= g (E (θ))
Ejemplo
Sea X1 , X2 , . . . Xn una muestra aleatoria de la distribución
Poisson(λ). Aunque λ̂ = X̄ es un estimador insesgado de λ, no se
cumple que λ̂2 sea estimador insesgado de λ.
Xi 2
P
2
E (λ̂ ) = E
n
n
1 X 2 1 X
= E (Xi ) + E (Xi Xj )
n2 n2
i=1 i̸=j
n n(n + 1) 2
= 2
(λ + λ2 ) + (λ )
n n2
λ
= + λ2 ̸= λ2
n
Propiedades de los estimadores
Insesgamiento asintótico
Una estadı́stica θ̂n , basada en una muestra aleatoria de tamaño n,
es un estimador asintóticamente insesgado para un parámetro θ si
lim E (θ̂n ) = θ
n→∞
Propiedades de los estimadores
Consistencia
Sea θ̂n un estimador para θ. Se dice que θ̂n es consistente para θ si
θ̂n → θ en probabilidad, cuando n → ∞, es decir
Estimador UMVUE
Decimos que θ̂ es el mejor estimador insesgado de θ si
1. E (θ̂) = θ
2. θ̂ = ni=1 ai Xi
P