Prueba de Anderson Darling

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

Prueba de Anderson-Darling

La prueba de Anderson-Darling (ver Stephens, 1986) se utiliza para probar si


una muestra de los datos proceden de una distribución absolutamente continua
con vector de parámetros. El estadístico de prueba de Anderson-Darling
pertenece a una clase de medidas de discrepancia, conocidas como estadísticas
cuadráticas

El estadístico de prueba de Anderson-Darling está dado por

Donde 𝑧 = 𝐹₀(×( 𝑖 ) ; 𝜃). Cuando la distribución 𝐹₀ está completamente


especificada (no hay parámetros que estimar) la distribución de A₂ no depende
de 𝐹₀ aunque si depende de n. Cuando el parámetro se estima La distribución
además de depender de 𝐹₀, también depende de la estimación del parámetro.

Prueba de Kolmogorov−Smirnov
Este contraste, que es válido únicamente para variables continuas, compara la
función de distribución (probabilidad acumulada) teórica con la observada, y
calcula un valor de discrepancia, representado habitualmente como D, que
corresponde a la discrepancia máxima en valor absoluto entre la distribución
observada y la distribución teórica, proporcionando asimismo un valor de
probabilidad P, que corresponde, si estamos verificando un ajuste a la
distribución normal, a la probabilidad de obtener una distribución que discrepe
tanto como la observada si verdaderamente se hubiera obtenido una muestra
aleatoria, de tamaño n, de una distribución normal. Si esa probabilidad es
grande no habrá por tanto razones estadísticas para suponer que nuestros datos
no proceden de una distribución, mientras que si es muy pequeña, no será
aceptable suponer ese modelo probabilístico para los datos.
Tal vez el método más recomendable para el caso en que F(x) es una
distribución continua es el método para una muestra de Kolmogorov-Smirnov o
(K-S). Consiste en una prueba de hipótesis en el que la hipótesis nula afirma que
los datos sí se ajustan a la distribución F(x) y la hipótesis alterna establece que
no se ajustan. El estadístico de prueba está dado por

Este valor se compara con el valor crítico que se encuentra en una tabla. Se
rechaza la hipótesis nula si Dc es mayor que el valor de tabla para el nivel de
confianza y el tamaño de muestra que se estén considerando.
EJEMPLO:
DURACIONES DE LAS BATERIAS DE UN AUTOMOVIL

Probar que los datos si se ajustan a una distribución normal con µ = 3.5 y σ =
0.7

Dc =0.1068 , Es el mayor valor de las dos últimas columnas.


DT = 0.2150, Para un nivel de significancia α = 0.05 y n=40.
Como D D c T p , no se rechaza la hipótesis nula de que los datos se ajustan a
una distribución normal con µ = 3.5 y σ = 0.7

Prueba de Shapiro−Wilks
Aunque esta prueba es menos conocida es la que se recomienda para contrastar
el ajuste de nuestros datos a una distribución normal, sobre todo cuando la
muestra es pequeña (n<30).
Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilístico
normal. Este tipo de representación también lo proporcionan algunos
programas de estadística, de tal manera que nos permite además apreciar el
ajuste o desajuste de forma visual:

En escala probabilística normal se representa en el eje horizontal, para cada


valor observado en nuestros datos, la función de distribución o probabilidad
acumulada observada, y en el eje vertical la prevista por el modelo de
distribución normal. Si el ajuste es bueno, los puntos se deben distribuir
aproximadamente según una recta a 45º. En la imagen vemos que en este
ejemplo existe cierta discrepancia. En cualquier caso siempre es adecuado
efectuar una representación gráfica de tipo histograma de los datos, y comparar
el valor de la media y la mediana, así como evaluar el coeficiente de asimetría y
apuntamiento, además de llevar a cabo una representación en escala
probabilística de la distribución de probabilidad esperada versus observada,
como la de la figura.
Posibles soluciones cuando se rechaza la hipótesis de normalidad.
Si rechazamos o dudamos de la normalidad de nuestros datos, existen varias
soluciones posibles: Si la distribución es más apuntada que la normal (mayor
parte de los valores agrupados en torno de la media y colas más largas en los
extremos), se debe investigar la presencia de heterogeneidad en los datos y de
posibles valores atípicos o errores en los datos. La solución puede ser emplear
pruebas no paramétricas.
• Si la distribución es unimodal y asimétrica, la solución más simple y efectiva
suele ser utilizar una transformación para convertir los datos en normales.
• Cuando la distribución no es unimodal hay que investigar la presencia de
heterogeneidad, ya que en estos casos la utilización de transformaciones no es
adecuada y los métodos no paramétricos pueden también no serlo.
• Una alternativa muy interesante a los métodos paramétricos y a las pruebas
no paramétricas clásicas, la constituye la metodología de estimación
autosuficiente ya esbozada en otro artículo de esta serie.
Ryan-Joiner.
Esta prueba evalúa la normalidad al calcular la correlación entre sus datos y los
puntajes normales de sus datos. Si el coeficiente de correlación es cercano a 1, es
probable que la población sea normal. La estadística de Ryan-Joiner evalúa la
fuerza de esta correlación; si es menor que el valor crítico apropiado, rechazará
la hipótesis nula de normalidad de la población. Esta prueba es similar a la
prueba de normalidad de Shapiro-Wilk.

Fórmula

Notación

Término Descripción

Yi observaciones ordenadas

bi puntuaciones normales de los datos ordenados

s2 varianza de la muestra

Shapiro-Wilk
El test de Shapiro-Wilk es un contraste de ajuste que se utiliza para
comprobar si unos datos determinados (X1, X2,…, Xn) han sido extraídos de
una población normal. Los parámetros de la distribución no tienen porqué
ser conocidos y está adecuado para muestras pequeñas (n<50).

Un contraste de ajuste tiene como objetivo comprobar si con base en la


información suministrada por una muestra se puede aceptar que la población de
origen sigue una determinada distribución de probabilidad, en nuestro caso, la
distribución normal.

Vamos a ver un ejemplo. Contrastaremos la normalidad de los siguientes datos


muéstrales (n=10)

0.93 – 1.20 – 1.10 – 1.26 – 1.38 – 1.24 – 1.32 – 1.14 – 1.24 – 1.18

Con los cálculos pertinentes obtenemos el valor de b=0.3653 y de la cuasi


varianza Sc2=0.01561. Al final tenemos que W=0.9498.

La región crítica es 0.9498 10,α. Vamos a variar el valor de α para obtener


distintos valores de W10,α. Para α=0.1 tenemos que W10,0.1=0.869, para α=0.05
tenemos que W10,0.05=0.842 y para α=0.01 tenemos que W10,0.01=0.781. En todos
los casos se acepta H0, es decir, los datos muéstrales siguen una distribución
normal.

También podría gustarte