Pruebas Paramétricas y No Parametricas
Pruebas Paramétricas y No Parametricas
Pruebas Paramétricas y No Parametricas
Prueba paramétrica
Las pruebas paramétricas son un tipo de pruebas de significación estadística que cuantifican la
asociación o independencia entre una variable cuantitativa y una categórica (1). Recordemos que una
variable categórica es aquella que diferencia a los individuos en grupos. Sin embargo, este tipo de
pruebas exigen ciertos requisitos previos para su aplicación. ¿Cuáles son estos?
Pongamos que, por ejemplo, queremos comparar dos grupos. Para comprobar si podemos aplicar las
Además, también tendremos que comprobar la homogeneidad de las varianzas en las poblaciones de
las que proceden los grupos. Por último, la cantidad de sujetos, llamada n en estadística, tendrá que
ser mayor que 30 por grupo, favoreciendo los resultados del contraste de hipótesis el hecho de que
los grupos estén balanceados. En el caso de que estos requisitos no se cumplan, recurriremos a las
prueba t (para una muestra o para dos muestras relacionadas o independientes) y prueba ANOVA
Son muchas las investigaciones que necesitan determinar qué tiene que ver con qué. Es decir,
necesitan saber si las variables que se están estudiando están asociadas entre sí o no. En cualquier
caso, necesitamos saber algunas cosas antes de aplicar unas pruebas u otras. Así, de forma
detallada, los requisitos para poder utilizar estas pruebas paramétricas son (1):
Normalidad
Principalmente, los valores de la variable dependiente deben seguir una distribución normal.
intelectual son ejemplos de variables de las que, normalmente, se asume que siguen una
distribución normal.
Las varianzas de la variable dependiente en los grupos comparados deben ser más o menos
iguales. Por eso es necesario saber si se cumple con esta homogeneidad de varianzas, ya que
La prueba de Levene.
La F de Fisher.
Fmax de Hartley.
Prueba de Barlett.
La n muestral
puede ser inferior a 30, y será mejor cuanto más se acerque a la n de toda la población.
Así, cuanto mayor sea la muestra, más exacta será la estimación. Al contrario, cuanto más
pequeña sea la muestra, más distorsionada será la media de las muestras por los valores raros
extremos.
La prueba t para una muestra se ocupa de contrastar si la media de una población difiere de forma
Esta prueba se utiliza cuando la comparación sea entre las medias de dos poblaciones
independientes. Esto es, los individuos de una de las poblaciones son distintos a los individuos de la
Esta prueba es otra de las alternativas para contrastar dos medias. Esta se refiere principalmente al
supuesto caso en el que las dos poblaciones no sean independientes. En este caso, se trata de
poblaciones que se relacionan entre sí. Esta situación ocurre, por ejemplo, cuando un grupo de
En el caso de tener que comparar más de dos muestras, habremos de recurrir al análisis de varianza
Estas pruebas son muy recurrentes en la investigación de psicología, abusando de ellas en muchas
ocasiones. Sin embargo, hemos de recordar siempre sus requisitos previos, que nos indicarán si
podemos utilizar las pruebas paramétricas o bien debemos recurrir a las pruebas no paramétricas.
Pruebas no paramétricas
Las pruebas o técnicas no paramétricas engloban una serie de pruebas estadísticas que tienen en
común la ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que
ha sido extraída la muestra. Así, estas técnicas se aplican cuando no sabemos si la población de la
Estas técnicas no paramétricas se utilizan con frecuencia, puesto que existen muchas variables que
no siguen las condiciones de parametricidad. Estas son: el uso de variables cuantitativas continuas,
Cuando estos requisitos previos no se cumplen o hay serias dudas de que se cumplan, se usan
las pruebas no paramétricas o de distribución libre. Así, las pruebas no paramétricas reúnen las
siguientes características:
Se utilizan mucho menos de lo que sería recomendable (son menos conocidas por los
investigadores).
Son aplicables a los datos jerarquizados.
En esta clasificación de las pruebas no paramétricas ocurre una falta de consenso a la hora de
agruparlas. Las autoras Berlanga y Rubio (2012) realizaron un resumen de las principales pruebas
paramétricas.
Es una prueba muy utilizada cuando el investigador quiere analizar la relación entre dos
variables que son cuantitativas. También es muy utilizada para evaluar en qué medida los
datos recogidos en una variable categórica (distribución empírica) se ajustano no (se parece
Prueba Binomial
Prueba de Rachas
Es una prueba que permite determinar si el número de rachas (R) observado en una
Una racha es una secuencia de observaciones de un mismo atributo o cualidad. Que haya
más o menos rachas que las esperables por azar en una serie de datos puede ser un
indicador de que hay una variable importante que está condicionando los resultados y que
Esta prueba sirve para contrastar la hipótesis nula de que la distribución de una variable se
Prueba de McNemar
usa cuando hay una situación en la que las medidas de cada sujeto se repiten. Así, la respuesta de
cada uno de ellos se obtiene dos veces: una vez antes y otra después de un evento específico.
Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales. Se puede utilizar
para saber si una variable tiende a ser mayor que otra. También para probar la tendencia que
Prueba de Friedman
Se trata de una extensión de la prueba de Wilcoxon. Así, se usa para incluir datos registrados
en más de dos periodos de tiempo o grupos de tres o más sujetos, con un sujeto de
cada grupo que ha sido asignado aleatoriamente a una de las tres o más condiciones.
Prueba de Cochran
Es idéntica a la anterior, pero se aplica cuando todas las respuestas son binarias. La Q de
Cochran aprueba la hipótesis de que varias variables dicotómicas que están relacionadas
Tiene las mismas indicaciones que la prueba de Friedman. Sin embargo, su uso en
Prueba U de Mann-Whitney
Kruskal-Wallis.
Prueba de Kolmogorov-Smirnov
Esta prueba se usa para contrastar la hipótesis de que dos muestras proceden de la misma
población.
Prueba de Rachas de Wald-Wolfowitz
Contrasta si dos muestras con datos independientes proceden de poblaciones con la misma
distribución.
distribuciones. Se centra en la distribución del grupo de control y es una medida para saber
cuántos valores extremos del grupo experimental influyen en la distribución al combinarse con el
grupo de control.
Ejercicio 1
Los siguientes datos son las edades de una muestra de personas seleccionadas entre los visitantes
de un Bingo.
32, 23, 64, 31, 74, 44, 61, 33, 66, 73, 27, 65, 40, 54, 23, 43, 58, 87, 58, 62. 68, 89, 93, 24, 73, 42, 33,
63, 36, 48, 77, 75, 37, 59, 70, 61, 43, 68, 54, 29, 48, 81, 57, 97, 35, 58, 56, 58, 57, 45
Realiza un test Chi-cuadrado de bondad de ajuste para decidir si puede aceptarse que las edades
sigan una distribución normal.
Ordenamos los datos de menor a mayor y realizamos una tabla de frecuencias con 4 clases.
Total Frecuencia: 12 18 15 5 50
Tenemos que hallar una estimación para la media y la desviación típica. Usamos en esta ocasión la
media y la desviación típica de la muestra como estimadores. Para realizar los cálculos, y con el
proposito de simplificarlos se han empleado la tabla de datos agrupados en lugar de los datos
primitivos, resultando:
µˆ = ¯x = 55.2, σˆ = S = 18.7
Calculamos ahora la probabilidad para cada clase usando la distribución N(55.2, 18.7)
La probabilidad que correspondería a las distintas clases si se cumple la hipótesis nula de que los
datos siguen una distribución N(55.2, 18.7) es:
P(x ≤ 40) = NormalDist(40; 55.2, 18.7) = 0.208 16
P(40 < x ≤ 60) = NormalDist(60; 55.2, 18.7)−NormalDist(40; 55.2, 18.7) = 0.601 29 − 0.208 16 = 0.393
P(60 < x ≤ 80) = NormalDist(80; 55.2, 18.7)−NormalDist(60; 55.2, 18.7) = = 0.907 61 − 0.601 29 =
0.306 32
Multiplicamos por el número total de datos estas probabilidades para obtener la frecuencia
esperada, npi :