Pruebas Paramétricas y No Parametricas

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

PRUEBAS PARAMÉTRICAS Y NO PARAMETRICAS

Prueba paramétrica

Las pruebas paramétricas son un tipo de pruebas de significación estadística que cuantifican la

asociación o independencia entre una variable cuantitativa y una categórica (1). Recordemos que una

variable categórica es aquella que diferencia a los individuos en grupos. Sin embargo, este tipo de

pruebas exigen ciertos requisitos previos para su aplicación. ¿Cuáles son estos?

Pongamos que, por ejemplo, queremos comparar dos grupos. Para comprobar si podemos aplicar las

pruebas paramétricas, primero tendremos que comprobar si la distribución de los grupos en la

variable cuantitativa es normal.

Además, también tendremos que comprobar la homogeneidad de las varianzas en las poblaciones de

las que proceden los grupos. Por último, la cantidad de sujetos, llamada n en estadística, tendrá que

ser mayor que 30 por grupo, favoreciendo los resultados del contraste de hipótesis el hecho de que

los grupos estén balanceados. En el caso de que estos requisitos no se cumplan, recurriremos a las

pruebas no paramétricas. Si se cumplen, entonces podremos utilizar las pruebas paramétricas: la

prueba t (para una muestra o para dos muestras relacionadas o independientes) y prueba ANOVA

(para más de dos muestras independientes).

Condiciones para aplicarlas

Son muchas las investigaciones que necesitan determinar qué tiene que ver con qué. Es decir,

necesitan saber si las variables que se están estudiando están asociadas entre sí o no. En cualquier

caso, necesitamos saber algunas cosas antes de aplicar unas pruebas u otras. Así, de forma

detallada, los requisitos para poder utilizar estas pruebas paramétricas son (1):

 La variable de estudio ha de ser numérica


Esto es, la variable dependiente debe estar medida en una escala que sea, por lo menos, de

intervalo. Es mejor incluso si es de razón.

 Normalidad

Principalmente, los valores de la variable dependiente deben seguir una distribución normal.

Esto debe ocurrir, como mínimo, en la población que pertenece a la muestra.

La distribución normal o gaussiana (debido a la campana de Gauss) es la distribución teórica

mejor estudiada y debe su importancia fundamentalmente a la frecuencia con la que distintas

variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta

distribución. Algunos ejemplos, como el peso o caracteres psicológicos como el cociente

intelectual son ejemplos de variables de las que, normalmente, se asume que siguen una

distribución normal.

 Homocedasticidad (homogeneidad de varianzas) entre los grupos a comparar

Las varianzas de la variable dependiente en los grupos comparados deben ser más o menos

iguales. Por eso es necesario saber si se cumple con esta homogeneidad de varianzas, ya que

de ello depende la formulación que empleemos en el contraste de medias. Algunas pruebas

que permiten comparar esta homogeneidad de varianzas son:

 La prueba de Levene.

 La F de Fisher.

 Fmax de Hartley.

 Prueba de Barlett.

La n muestral

La n es el tamaño de la población. En este caso, el tamaño de la población de la muestra no

puede ser inferior a 30, y será mejor cuanto más se acerque a la n de toda la población.
Así, cuanto mayor sea la muestra, más exacta será la estimación. Al contrario, cuanto más

pequeña sea la muestra, más distorsionada será la media de las muestras por los valores raros

extremos.

TIPOS DE PRUEBAS PARAMÉTRICAS

Según el contraste planteado, se utiliza un tipo u otro de prueba paramétrica (2):

Tipo de contraste Pruebas

Una muestra Prueba t

Dos muestras independientes Prueba t para dos muestras independientes

Dos muestras relacionadas Prueba t para datos relacionados

Más de dos muestras independientes ANOVA

Prueba t para una muestra

La prueba t para una muestra se ocupa de contrastar si la media de una población difiere de forma

significativa de un valor dado conocido o hipotetizado. Así, la prueba calcula estadísticos

descriptivos para las variables de contraste junto con la prueba t (1).

Prueba t para dos muestras independientes

Esta prueba se utiliza cuando la comparación sea entre las medias de dos poblaciones

independientes. Esto es, los individuos de una de las poblaciones son distintos a los individuos de la

otra. Un ejemplo de esto es una comparación entre hombres y mujeres (1).

Prueba t para dos muestras relacionadas

Esta prueba es otra de las alternativas para contrastar dos medias. Esta se refiere principalmente al

supuesto caso en el que las dos poblaciones no sean independientes. En este caso, se trata de
poblaciones que se relacionan entre sí. Esta situación ocurre, por ejemplo, cuando un grupo de

individuos es observado antes y después de una determinada intervención.

Prueba ANOVA para más de dos muestras independientes

En el caso de tener que comparar más de dos muestras, habremos de recurrir al análisis de varianza

o ANOVA. Es una prueba estadística desarrollada para realizar simultáneamente la comparación de

las medias de más de dos poblaciones.

Estas pruebas son muy recurrentes en la investigación de psicología, abusando de ellas en muchas

ocasiones. Sin embargo, hemos de recordar siempre sus requisitos previos, que nos indicarán si

podemos utilizar las pruebas paramétricas o bien debemos recurrir a las pruebas no paramétricas.

Pruebas no paramétricas

Las pruebas o técnicas no paramétricas engloban una serie de pruebas estadísticas que tienen en

común la ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que

ha sido extraída la muestra. Así, estas técnicas se aplican cuando no sabemos si la población de la

cual se extrae la muestra es normal o aproximadamente normal.

Estas técnicas no paramétricas se utilizan con frecuencia, puesto que existen muchas variables que

no siguen las condiciones de parametricidad. Estas son: el uso de variables cuantitativas continuas,

distribución normal de las muestras, varianzas similares y muestras balanceadas.

Cuando estos requisitos previos no se cumplen o hay serias dudas de que se cumplan, se usan

las pruebas no paramétricas o de distribución libre. Así, las pruebas no paramétricas reúnen las

siguientes características:

 Se utilizan mucho menos de lo que sería recomendable (son menos conocidas por los

investigadores).
 Son aplicables a los datos jerarquizados.

 Se pueden usar cuando dos series de observaciones provienen de distintas poblaciones

(poblaciones en las que no se distribuye igual la variable).

 Son la única alternativa realista cuando el tamaño de muestra es pequeño.

Clasificación de las pruebas no paramétricas

En esta clasificación de las pruebas no paramétricas ocurre una falta de consenso a la hora de

agruparlas. Las autoras Berlanga y Rubio (2012) realizaron un resumen de las principales pruebas

paramétricas.

Pruebas no paramétricas de una muestra

 Prueba de Chi-cuadrado de Pearson

Es una prueba muy utilizada cuando el investigador quiere analizar la relación entre dos

variables que son cuantitativas. También es muy utilizada para evaluar en qué medida los

datos recogidos en una variable categórica (distribución empírica) se ajustano no (se parece

o no) a una determinada distribución teórica (uniforma, binomial, multinomial, etcétera).

 Prueba Binomial

Esta prueba permite averiguar si una variable dicotómica sigue o no un determinado

modelo de probabilidad. Permite contrastar la hipótesis de que la proporción observada de

aciertos se ajusta a la proporción teórica de una distribución binomial.

 Prueba de Rachas
Es una prueba que permite determinar si el número de rachas (R) observado en una

muestra de tamaño n es lo suficientemente grande o lo suficientemente pequeño para

poder rechazar la hipótesis de independencia (o aleatoreidad) entre las observaciones.

Una racha es una secuencia de observaciones de un mismo atributo o cualidad. Que haya

más o menos rachas que las esperables por azar en una serie de datos puede ser un

indicador de que hay una variable importante que está condicionando los resultados y que

no estamos teniendo en cuenta..

 Prueba de Kolmogorov-Smirnov (K-S)

Esta prueba sirve para contrastar la hipótesis nula de que la distribución de una variable se

ajusta a una determinada distribución teórica de probabilidad (normal, exponencial o la de

Poisson). El hecho de que la distribución de los datos se ajuste o no a una determinada

distribución va a sugerirnos unas técnicas de análisis de datos frente a otras.

Pruebas no paramétricas para dos muestras relacionadas

 Prueba de McNemar

La prueba de McNemar se utiliza para contrastar hipótesis sobre igualdad de proporciones. Se

usa cuando hay una situación en la que las medidas de cada sujeto se repiten. Así, la respuesta de

cada uno de ellos se obtiene dos veces: una vez antes y otra después de un evento específico.

 Prueba de los Signos

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales. Se puede utilizar

para saber si una variable tiende a ser mayor que otra. También para probar la tendencia que

siguen una serie de variables positivas.


 Prueba de Wilcoxon

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales.

 Pruebas no paramétricas para K-muestras relacionadas

 Prueba de Friedman

Se trata de una extensión de la prueba de Wilcoxon. Así, se usa para incluir datos registrados

en más de dos periodos de tiempo o grupos de tres o más sujetos, con un sujeto de

cada grupo que ha sido asignado aleatoriamente a una de las tres o más condiciones.

 Prueba de Cochran

Es idéntica a la anterior, pero se aplica cuando todas las respuestas son binarias. La Q de

Cochran aprueba la hipótesis de que varias variables dicotómicas que están relacionadas

entre sí tienen el mismo promedio.

 Coeficiente de concordancia de W de Kendall

Tiene las mismas indicaciones que la prueba de Friedman. Sin embargo, su uso en

investigación ha sido principalmente para conocer la concordancia entre rangos.

Pruebas no paramétricas para dos muestras independientes

 Prueba U de Mann-Whitney

Es equivalente a la prueba de suma de rangos de Wilcoxon y también a la prueba de dos grupos

Kruskal-Wallis.

 Prueba de Kolmogorov-Smirnov

Esta prueba se usa para contrastar la hipótesis de que dos muestras proceden de la misma

población.
 Prueba de Rachas de Wald-Wolfowitz

Contrasta si dos muestras con datos independientes proceden de poblaciones con la misma

distribución.

 Prueba de reacciones extremas de Moses

Sirve para estudiar si hay diferencia en el grado de dispersión o variabilidad de dos

distribuciones. Se centra en la distribución del grupo de control y es una medida para saber

cuántos valores extremos del grupo experimental influyen en la distribución al combinarse con el

grupo de control.

Ejercicio 1

Los siguientes datos son las edades de una muestra de personas seleccionadas entre los visitantes
de un Bingo.

32, 23, 64, 31, 74, 44, 61, 33, 66, 73, 27, 65, 40, 54, 23, 43, 58, 87, 58, 62. 68, 89, 93, 24, 73, 42, 33,
63, 36, 48, 77, 75, 37, 59, 70, 61, 43, 68, 54, 29, 48, 81, 57, 97, 35, 58, 56, 58, 57, 45

Realiza un test Chi-cuadrado de bondad de ajuste para decidir si puede aceptarse que las edades
sigan una distribución normal.

Ordenamos los datos de menor a mayor y realizamos una tabla de frecuencias con 4 clases.

Clase :[20,40) [40,60) [60,80) [80, 100)

Total Frecuencia: 12 18 15 5 50

Tenemos que hallar una estimación para la media y la desviación típica. Usamos en esta ocasión la
media y la desviación típica de la muestra como estimadores. Para realizar los cálculos, y con el
proposito de simplificarlos se han empleado la tabla de datos agrupados en lugar de los datos
primitivos, resultando:

µˆ = ¯x = 55.2, σˆ = S = 18.7

Calculamos ahora la probabilidad para cada clase usando la distribución N(55.2, 18.7)

La probabilidad que correspondería a las distintas clases si se cumple la hipótesis nula de que los
datos siguen una distribución N(55.2, 18.7) es:
P(x ≤ 40) = NormalDist(40; 55.2, 18.7) = 0.208 16

P(40 < x ≤ 60) = NormalDist(60; 55.2, 18.7)−NormalDist(40; 55.2, 18.7) = 0.601 29 − 0.208 16 = 0.393

P(60 < x ≤ 80) = NormalDist(80; 55.2, 18.7)−NormalDist(60; 55.2, 18.7) = = 0.907 61 − 0.601 29 =
0.306 32

P(80 < x) = 1 − NormalDist(80; 55.2, 18.7) = 9. 238 6 × 10−2

Multiplicamos por el número total de datos estas probabilidades para obtener la frecuencia
esperada, npi :

El valor experimental de Chi es:

χ 2 = (12−10.5)/2 10.5 + (18−19.66)/2 19.66 + (15−15.32)/2 15.32 + (5−4.5)/2 4.5 = 0.416 69


2
Hallando el valor crítico que corresponde a 𝑥4−2−1,0.95 = 0.95;1 = 3. 84, resulta que el intervalo de
aceptación es (0,3.84). Como el valor experimental, 0.41669, pertenece a este intervalo se decide
aceptar que los datos siguen una distribución N(55.2, 18.7).

También podría gustarte