Distribución Muestral de Medias
Distribución Muestral de Medias
Distribución Muestral de Medias
Si tenemos una muestra aleatoria de una población N(m,s ), se sabe (Teorema del
límite central) que la fdp de la media muestral es también normal con media m y
varianza s2/n. Esto es exacto para poblaciones normales y aproximado (buena
aproximación con n>30) para poblaciones cualesquiera. Es decir es el error
típico, o error estándar de la media.
Numero de resultados
exitosos
p
Numero total de resultado
La desviación de la proporción
p
(cortez, 2012)
DISTRIBUCION T-STUDENT
Si S2es la varianza de una muestra aleatoria de tamaño n tomada de una población normal con la
varianza 2, entonces:
x x
2
n 1 2 n
2 s i 1
2 2
Ejemplo
En una población de 500 puntuaciones cuya Media (m) es igual a 5.09 han hecho
un muestreo aleatorio (número de muestras= 10000, tamaño de las muestras= 100)
y hallan que la Media de las Medias muestrales es igual a 5.09, (la media
poblacional y la media de las medias muestrales coinciden). En cambio, la Mediana
de la población es igual a 5 y la Media de las Medianas es igual a 5.1 esto es, hay
diferencia ya que la Mediana es un estimador sesgado.
La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas
obtenidas con la Varianza
la Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la
Varianza de la población ya que la Cuasi varianza es un estimador insesgado.
vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el
mismo valor que la Media de la población.
Estimación puntual
Ejemplo
Se generan 100000 muestras aleatorias (n=25) de una población que sigue la
distribución Normal, y resulta:
Ejemplo
La siguiente imagen muestra la distribución de las Medias muestrales obtenidas de
100000 muestras aleatorias y los intervalos alrededor de cada una de las Medias
obtenidas de diez de las muestras:
Dada una variable aleatoria con distribución Normal N(μ, σ), el objetivo es la construcción
de un intervalo de confianza para el parámetro μ, basado en una muestra de tamaño n de
la variable.
Desde el punto de vista didáctico hemos de considerar dos posibilidades sobre la
desviación típica de la variable: que sea conocida o que sea desconocida y
tengamos que estimarla a partir de la muestra. El caso de σ conocida, ya comentado
anteriormente, no pasa de ser un caso académico con poca aplicación en la
práctica, sin embargo es útil desde del punto de vista didáctico.
donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha
una probabilidad de α/2, de la que se deduce el intervalo de confianza
Dada una variable aleatoria con distribución Binomial B (n, p), el objetivo es la
construcción de un intervalo de confianza para el parámetro p, basada en una
observación de la variable que ha dado como valor x. El mismo caso se aplica si
estudiamos una Binomial B (1, p) y consideramos el número de veces que ocurre el
suceso que define la variable al repetir el experimento n veces en condiciones
de independencia.
Aproximación asintótica
que sigue una distribución N(0, 1), y añadiendo una corrección por continuidad al
pasar de una variable discreta a una continua, se obtiene el intervalo de confianza
asintótico:
donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha
una probabilidad de α/2 para un intervalo de confianza de (1 − α) · 100 %. Las
condiciones generalmente aceptadas para considerar válida la aproximación
asintótica anterior son:
Intervalo exacto
Consideremos una población, con una distribución normal respecto de una variable
aleatoria; extraemos una muestra por alguno de los procedimientos del epígrafe
anterior.
Para la variable aleatoria que estamos considerando podemos calcular la media y
la desviación típica en la muestra, que en general serán distintas a las
correspondientes de la población :
Error máximo
El error maximo en la estimación, que se comete con una confianza del 1-α, es:
Tamaño de la muestra
Observación
Estamos suponiendo que la desviación típica de la población es conocida, pero es
raro que no se conozca la media y se conozca la desviación típica; lo normal, será
que no se conozca ni la media ni la desviación típica de la población.
La varianza de la muestra no es un estimador centrado de la varianza de la
población, y sin embargo, la cuasi varianza de la muestra, sí es un estimador
centrado de la varianza de la población; por tanto, es mejor estimador de la varianza
de la población, la cuasi varianza de la muestra.
Como :
Utilizando este criterio los resultados numéricos no coinciden exactamente con los
que se obtendrían aplicando la expresión del error típico de la proporción; no
obstante, la discrepancia es despreciable si el número de observaciones es
suficientemente grande.
Otras alternativas para realizar este contraste son de naturaleza no paramétrica.
PRUEBA BINOMIAL
La prueba binomial prueba binomial analiza variables dicotómicas y compara las
frecuencias observadas en cada categoría con las que cabría esperar según una
distribución binomial de parámetro especificado en la hipótesis nula. El nivel de
significación crítico de esta prueba indica la probabilidad de obtener una
discrepancia igual o superior a la observada a partir de la muestra si la distribución
es la postulada por la hipótesis nula.
El nivel de significación crítico (bilateral) de este contraste debe interpretarse como:
el número de éxitos en la muestra.
Cuando n es suficientemente grande se calcula esta probabilidad aproximando la
distribución binomial a la normal con corrección de continuidad.
PRUEBA DE HIPÓTESIS PARA LA MEDIA
En vez de estimar el valor de un parámetro, a veces se debe decidir si una
afirmación relativa a un parámetro es verdadera o falsa. Es decir, probar una
hipótesis relativa a un parámetro. Se realiza una prueba de hipótesis cuando se
desea probar una afirmación realizada acerca de un parámetro o parámetros de una
población.
Una hipótesis es un enunciado acerca del valor de un parámetro (media, proporción,
etc.).
Prueba de Hipótesis es un procedimiento basado en evidencia muestral
(estadístico) y en la teoría de probabilidad (distribución muestral del estadístico)
para determinar si una hipótesis es razonable y no debe rechazarse, o si es
irrazonable y debe ser rechazada.
La hipótesis de que el parámetro de la población es igual a un valor determinado se
conoce como hipótesis nula. Una hipótesis nula es siempre una de status quo o de
no diferencia.
Ejemplos ilustrativos:
1) La duración media de una muestra de 300 focos producidos por una compañía
resulta ser de 1620 horas.
Como se tiene como dato el tamaño de la población se tiene que verificar si cumple
con la condición para utilizar el factor finito de corrección.
Los cálculos en Excel se muestran en la siguiente imagen:
𝑃̂ − 𝑝0
𝑍=
√𝑝0 (1 − 𝑝0 )
𝑛
Donde 𝑝̂ es la proporción estimada a partir de los datos muestrales y se obtiene al
dividir el número de éxitos o eventos ocurridos entre el numero total de elementos
inspeccionados, es decir:
𝑥
𝑝̂ =
𝑛
La regla de decisión ya la conocemos y el valor critico es obtenido de la tabla de
áreas bajo la curva normal estándar.
(morales, 2017)
PRUEBA DE HIPÓTESIS PARA LA VARIANZA
Para variables continuas, en muchas ocasiones resulta ser de interés aplicar
pruebas acerca del comportamiento que puede tener la varianza o la desviación
estándar poblacional. Resulta ser un buen complementó para las pruebas de
hipótesis de la media, ya que con la hipótesis que se presenta en este tema se
evalúa la variabilidad que puede tener un proceso. Siendo 𝜎02 la varianza
hipotética poblacional, las hipótesis que se evalúan son las de la tabla:
Hipótesis nula Hipótesis alterna Región de rechazo
𝐻1 : 𝜎 2 < 𝜎02 Cola inferior (izquierda)
𝐻0 : 𝜎 2 − 𝜎02 𝐻1 : 𝜎 2 ≠ 𝜎02 Ambas colas (bilateral)
𝐻1 : 𝜎 2 > 𝜎02 Cola superior (derecha)
2
(𝑛 − 1)𝑆 2
𝑥 =
𝜎02
Se recomienda observar bien los datos con los que se esta trabajando, ya que la
formula anterior pide varianzas, así que si se tienen varianzas en los datos de un
problema no hace falta elevarlos al cuadrado. El valor critico sigue una distribución
𝑥 2 con v= n-1 grados de libertad y se obtienen de la tabla de valores críticos de la
distribución ji-cuadrada.
(morales, 2017)
PRUEVA DE KOLMOGOROV
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una
prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de
probabilidad entre sí.
En el caso de que queramos verificar la normalidad de una distribución, la prueba
de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-Smirnov; y,
en general, el test de Shapiro–Wilk o la prueba de Anderson-Darling son alternativas
más potentes.
Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a los
valores cercanos a la mediana que a los extremos de la distribución. La prueba de
Anderson-Darling proporciona igual sensibilidad con valores extremos.
. La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado
en que la distribución observada difiere de otra distribución. Es una alternativa a la
prueba Ji Cuadrado de bondad de ajuste cuanto el número de datos es pequeño.
La prueba no debe ser aplicada si hay muchos empates.
a) Supuestos. Los datos están medidos al menos a nivel ordinal.
b) Hipótesis Nula: No hay diferencias entre las distribuciones comparadas.
c) Estadístico de contraste: D (mayor diferencia entre las frecuencias relativas de
las distribuciones).
d) Distribución del estadístico de contraste: Específico dependiendo de la
distribución con que se compare la distribución observada.
Ejemplo
Desean saber si una muestra de debe datos pertenece a una población
normalmente distribuida. Los datos (ordenados de menor a mayor) son:
(Notas:
* F(X) se refiere al límite superior del intervalo.
* Los valores en la columna F(X)obs son funciones de la distribución Normal
estandarizada y son los que correspondería a las puntuaciones
observadas si ajustaran a la distribución Normal, es decir, si la Hipótesis Nula fuera
verdadera)
D=0.2
e) Significación del estadístico de contraste: De acuerdo con las tablas de la prueba
es igual a 0.81
f) Se acepta la Hipótesis Nula por ser mayor la significación del estadístico de
contraste que el nivel previamente establecido (alfa= 0.05)
(MENDOZA, 2003)
La prueba de kolmogorov es una prueba no paramétrica más, su uso es para
evaluar si la distribución que sigue una variable se ajusta a alguna distribución
teórica conocida. Nótese que su uso es igual que el de las pruebas de bondad de
ajuste de la ji-cuadrada, es un método sencillo que mide las diferencias entre las
frecuencias relativas acumuladas de la distribución de la variable y de la distribución
teórica con la que se está contrastando, también se mencionan las ventajas que
tiene la prueba de KS con la 𝑥 2 , que son:
Prueba más poderosa
Más fácil de usar
No requiere que los datos se agrupen de alguna manera
De especial interés para muestras pequeñas.
La hipótesis nula que se plantea parte del supuesto de igualdad entre las dos
distribuciones de probabilidad y su contraparte rechaza esa igualdad.
El estadístico de prueba se obtiene por:
Dn = Max|EA − OA |
Donde |EA − OA | es la desviación absoluta, EA es la frecuencia esperada acumulada
y OA es la frecuencia observada acumulada. El Dn se compara con el valor crítico
de la tabla Dα, n, si el valor calculado es mayor que el valor de tabla se rechaza Ho,
lo que implica que no existe evidencia estadística para pensar que las distribuciones
son iguales. (morales, 2017)
PRUEBA DE ANDERSON- DARLING.
El estadístico de Anderson-Darling (AD) mide qué tan bien siguen los datos una
distribución en particular. Por lo general, mientras mejor se ajuste la distribución a
los datos, menor será el estadístico AD.
El estadístico AD se utiliza para calcular el valor p para la prueba de bondad de
ajuste, que ayuda a determinar qué distribución se ajusta mejor a los datos. Por
ejemplo, el estadístico AD se calcula para cada distribución cuando usted realiza
Identificación de distribución individual. Los valores p calculados a partir del
estadístico ayudan a determinar qué modelo de distribución se debe utilizar para
un análisis de capacidad o un análisis de fiabilidad. El estadístico AD también se
usa para comprobar si una muestra de datos proviene de una población con una
distribución especificada. Por ejemplo, tal vez tenga que comprobar si sus datos
cumplen con el supuesto de normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
H0: Los datos siguen una distribución especificada.
H1: Los datos no siguen una distribución especificada.
Si el valor p para la prueba de Anderson-Darling es menor que el nivel de
significancia seleccionado (por lo general 0.05 o 0.10), concluya que los datos no
siguen la distribución especificada. Minitab no siempre muestra un valor p para la
prueba de Anderson-Darling, porque este no existe matemáticamente para ciertos
casos.
Si está comparando el ajuste de varias distribuciones, la distribución con el valor p
más grande por lo general se ajusta más estrechamente a los datos. Si las
distribuciones tienen valores p similares, escoja una de las distribuciones con base
en el conocimiento práctico.
Algunos comandos generan un estadístico de Anderson-Darling, o AD*, ajustado.
El estadístico de Anderson-Darling no ajustado utiliza la función de paso no
paramétrica basada en el método de Kaplan-Meier para calcular los puntos de la
gráfica, mientras que el estadístico de Anderson-Darling ajustado utiliza otros
métodos para calcular los puntos de la gráfica. (GONZALES, 2012)
Bibliografía
Ibujes, M. O. (2012). Interaprendizaje de Probabilidades y Estadística Inferencial con Excel,
Winstats y Graph. Ibarra, Ecuador.: M & V. Obtenido de Interaprendizaje de
Probabilidades y Estadística Inferencial con Excel, Winstats y Graph.
Bibliografías
(valencia, 2000)
(desconocido, 2006)
(desconocido, 2006)
(S., 2001)
(desconocido, estadistica inferencial, s.f.)
(desconocido, estadisdica inferencial 1, 2003)
BIBLIOGRAFIA:
GONZALES, J. (22 de JUNIO de 2012). SUPPORT.MINITAP.COM. Obtenido de
SUPPORT.MINITAP.COM: https://support.minitab.com/es-mx/minitab/18/help-and-how-
to/quality-and-process-improvement/capability-analysis/supporting-topics/distributions-
and-transformations-for-nonnormal-data/anderson-darling-and-distribution-fit/