Tarea 4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

Estimación de parámetros

La estimación de parámetros es un método que consiste en asignar un valor


al parámetro o al conjunto de parámetros que caracterizan el campo sujeto a
estudio. La fórmula matemática que lo determina se denomina estimador. Al ser
una estimación existe cierto error.

Algunas de las funciones matemáticas más comunes utilizadas en


la estimación de parámetros:

Media Muestral (Estimador Media):

Varianza Muestral:

Varianza Muestral Segada:


Cuasi-varianza:

Cuasi-desviación típica:

Cuasi-covarianza
Estadística inferencial
La estadística inferencial es una rama de la estadística que se utiliza para
hacer predicciones o inferencias sobre una población a partir de una muestra de
datos extraída de esa población.

Características del buen estimador


En estadística, un estimador es un estadístico (esto es, una función de la
muestra) usado para estimar un parámetro desconocido de la población.
Para ser calificado de buen estimador son características importantes la insesgadez
o ausencia de sesgo, la eficiencia o reducida variabilidad y la consistencia o
comportamiento probabilístico del estimador a medida que aumenta el tamaño de
la muestra.
Sesgo
Es la diferencia entre el valor de un estimador estadístico y el valor real del
parámetro estimado. El objetivo de un estudio estadístico es calcular parámetros
que no tengan sesgo. Cuando el sesgo de un estimador es nulo se dice que es un
estimador insesgado o centrado.

Eficiencia
En estadística se dice que un estimador es más eficiente o más preciso que
otro estimador, si la varianza del primero es menor que la del segundo.
Si T1 y T2 son ambos estimadores de 𝜃 Var(T1))<Var(T2).
La eficiencia de los estimadores está limitada por las características de la
distribución de probabilidad de la muestra de la que proceden. El teorema Cramer-
Rao, determina que la varianza de un estimador insesgado T de un parámetro 𝜃 es
como mínimo.

Suficiencia
En estadística, un estadístico suficiente es un estadístico que tiene la

propiedad de la suficiencia con respecto a un modelo estadístico y su parámetro


desconocido.
Se puede probar que es un estadístico por el teorema de factorización de Fisher-
Neyman. El criterio de factorización de Fisher, enuncia que dado un estadístico T, si
cumple ciertas condiciones, será un estadístico suficiente.

Teorema de factorización de Fisher-neyman

Let fθ denotar la función de densidad de probabilidad de X y supongamos que


U=u(x) es una estadistica tomando valores en r. entonces U es suficiente para θ si y
solo existe.

Estadística robusta
Es una aproximación alternativa a los métodos estadísticos clásicos, el objetivo es
producir estimadores que no sean afectados por variaciones pequeñas, intentan
proporcionar métodos que emulan a los métodos clásicos, pero no son afectados
por los valores atípicos (observación numérica distante del resto de los datos).

Estimaciones Puntuales:
Valores únicos que estiman un parámetro de la población (por ejemplo, la
media muestral para estimar la media poblacional).
A los valores de esas características a nivel poblacional se les conoce como
parámetros y se representan simbólicamente con letras griegas. a interesar), no de
esa muestra, sino de la población a la que esa muestra pertenece.
Estimación por intervalos:
Rango de valores, derivados de los datos muestrales, que es probable que
contenga el parámetro poblacional.
En el caso que se dispusiese de los datos de una población para una
determinada variable X, la obtención de los parámetros que nos pudieran interesar
sería inmediata, bastaría con aplicar los índices estadísticos correspondientes para
todos los datos de la población.
A diferencia de la estimación puntual, que ofrece un solo valor, la estimación
por intervalos proporciona un rango de valores dentro del cual se espera que se
encuentre el parámetro poblacional.

También podría gustarte