Prueba de Hipótesis
Prueba de Hipótesis
Prueba de Hipótesis
Hay dos tipos de análisis estadísticos que pueden realizarse para probar hipótesis: los
análisis paramétricos y los no paramétricos. Cada tipo posee sus características y
presuposiciones que lo sustentan; la elección de qué clase de análisis efectuar depende
de estas presuposiciones. De igual forma, cabe destacar que en una misma investigación
es posible llevar a cabo análisis paramétricos para algunas hipótesis y variables, y análisis
no paramétricos para otras. Asimismo, los análisis a realizar dependen de las hipótesis
que hayamos formulado y el nivel de medición de las variables que las conforman.
Análisis paramétricos
¿Cuáles son los supuestos o las presuposiciones de la estadística paramétrica?
Para realizar análisis paramétricos debe partirse de los siguientes supuestos:
1. La distribución poblacional de la variable dependiente es normal: el universo tiene una
distribución normal.
2. El nivel de medición de las variables es por intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las
poblaciones en cuestión poseen una dispersión similar en sus distribuciones (Wiersma y
Jurs, 2008).
Ciertamente estos criterios son tal vez demasiado rigurosos y algunos investigadores
sólo basan sus análisis en el tipo de hipótesis y los niveles de medición de las variables.
Esto queda a juicio del lector. En la investigación académica y cuando quien la realiza es
una persona experimentada, sí debe solicitársele tal rigor.
¿Cuáles son los métodos o las pruebas estadísticas paramétricas más utilizadas?
Existen diversas pruebas paramétricas, pero las más utilizadas son:
• Coeficiente de correlación de Pearson y regresión lineal.
• Prueba t.
• Prueba de contraste de la diferencia de proporciones.
¿Qué es el coeficiente de correlación de Pearson?
Definición: es una prueba estadística para analizar la relación entre dos variables
medidas en un nivel por intervalos o de razón. Se simboliza: r. Hipótesis a probar:
correlacional, del tipo de “a mayor X, mayor Y”, “a mayor X, menor Y”, “altos valores en
X están asociados con altos valores en Y”, “altos valores en X se asocian con bajos valores
de Y”. La hipótesis de investigación señala que la correlación es significativa.
Variables: dos. La prueba en sí no considera a una como independiente y a otra como
dependiente, ya que no evalúa la causalidad. La noción de causa-efecto (independiente-
dependiente) es posible establecerla teóricamente, pero la prueba no asume dicha
causalidad.
El coeficiente de correlación de Pearson se calcula a partir de las puntuaciones obtenidas
en una muestra en dos variables. Se relacionan las puntuaciones recolectadas de una
variable con las puntuaciones obtenidas de la otra, con los mismos participantes o casos.
Nivel de medición de las variables: intervalos o razón.
Interpretación: el coeficiente r de Pearson puede variar de –1.00 a +1.00, donde:
–1.00 = correlación negativa perfecta. 0.00 = No existe correlación alguna
(“A mayor X, menor Y”, de manera entre las variables.
proporcional. Es decir, cada vez que X
+0.10 = Correlación positiva muy débil.
aumenta una unidad, Y disminuye
siempre una cantidad constante.) Esto +0.25 = Correlación positiva débil.
también se aplica “a menor X, mayor Y”.
+0.50 = Correlación positiva media.
–0.90 = Correlación negativa muy
+0.75 = Correlación positiva
fuerte.
considerable.
–0.75 = Correlación negativa
+0.90 = Correlación positiva muy fuerte.
considerable.
+1.00 = Correlación positiva perfecta.
–0.50 = Correlación negativa media.
(“A mayor X, mayor Y” o “a menor X,
–0.25 = Correlación negativa débil. menor Y”, de manera proporcional.
Cada vez que X aumenta, Y aumenta
–0.10 = Correlación negativa muy débil.
siempre una cantidad constante.)
El signo indica la dirección de la correlación (positiva o negativa); y el valor numérico, la
magnitud de la correlación. Los principales programas computacionales de análisis
estadístico reportan si el coeficiente es o no significativo de la siguiente manera:
r = 0.7831 (valor del coeficiente)
s o P = 0.001 (significancia)
N = 625 (número de casos correlacionados)
Si s o P es menor del valor 0.05, se dice que el coeficiente es significativo en el nivel de
0.05 (95% de confianza en que la correlación sea verdadera y 5% de probabilidad de
error). Si es menor a 0.01, el coeficiente es significativo al nivel de 0.01 (99% de confianza
de que la correlación sea verdadera y 1% de probabilidad de error).
O bien, otros programas como SPSS/PASW los presentan en una tabla, se señala con
asterisco(s) el nivel de significancia: donde un asterisco (*) implica una significancia
menor a 0.05 (quiere decir que el coeficiente es significativo en el nivel de 0.05, la
probabilidad de error es menor de 5%) y dos asteriscos (**) una significancia menor a
0.01 (la probabilidad de error es menor de 1%).
Consideraciones: cuando el coeficiente r de Pearson se eleva al cuadrado (r 2), se
obtiene el coeficiente de determinación y el resultado indica la varianza de factores
comunes. Esto es, el porcentaje de la variación de una variable debido a la variación de
la otra variable y viceversa (o cuánto explica o determina una variable la variación de la
otra).
¿Qué es la regresión lineal?
Definición: es un modelo estadístico para estimar el efecto de una variable sobre otra.
Está asociado con el coeficiente r de Pearson. Brinda la oportunidad de predecir las
puntuaciones de una variable tomando las puntuaciones de la otra variable. Entre mayor
sea la correlación entre las variables (covariación), mayor capacidad de predicción.
Hipótesis a probar: correlacionales y causales.
Variables: dos. Una se considera como independiente y otra como dependiente. Pero,
para poder hacerlo, debe tenerse un sólido sustento teórico.
Nivel de medición de las variables: intervalos o razón.
Procedimiento e interpretación: la regresión lineal se determina con base en el
diagrama de dispersión. Éste consiste en una gráfica donde se relacionan las
puntuaciones de una muestra en dos variables.
Por ejemplo: si se graficara en un sistema de ejes cartesianos el valor de la variable
independiente en el eje horizontal y el valor de la variable dependiente en el eje vertical,
los pares ordenados que corresponden a ambos valores que toman las dos variables en
una misma medición, se observara una distribución de puntos que si se aproxima a una
recta, implicando una correlación más fuerte, en cambio, si los puntos se distribuyen de
manera amorfa, esto demostrará una correlación débil.
Si la pendiente de la recta es positiva, la correlación es positiva, mientras que si la
pendiente es negativa, la correlación es negativa. Desde el punto de vista matemático
se puede obtener la ecuación de la recta que represente a cada correlación. La
distribución que se demuestre permite observar gráficamente y de manera aproximada
la existencia de las correlaciones de las variables y su magnitud.
En la práctica, los estudiantes no deben preocuparse por graficar los diagramas de
dispersión. Esto lo hace el programa respectivo (SPSS, Minitab u otro).
Consideraciones: la regresión lineal es útil con relaciones lineales, no con relaciones
curvilineales.
¿Qué es la prueba t?
Definición: es una prueba estadística para evaluar si dos grupos difieren entre sí de
manera significativa respecto a sus medias en una variable. Se simboliza: t. de student
en inglés.
Hipótesis a probar: de diferencia entre dos grupos. La hipótesis de investigación
propone que los grupos difieren de manera significativa entre sí y la hipótesis nula
plantea que los grupos no difieren significativamente. Los grupos pueden ser dos plantas
comparadas en su productividad, dos escuelas contrastadas en los resultados a un
examen, dos clases de materiales de construcción cotejados en su rendimiento,
etcétera.
Variables: la comparación se realiza sobre una variable (regularmente y de manera
teórica: dependiente), o una misma variable y en dos grupos diferentes.
Si hay diferentes variables, se efectuarán varias pruebas t (una por cada par de
variables), y la razón que motiva la creación de los grupos puede ser una variable
independiente.
Por ejemplo, un experimento con dos grupos, donde a uno se le aplica el estímulo
experimental y al otro no, es de control.
Nivel de medición de la variable de comparación: intervalos o razón.
Cálculo e interpretación: el valor t es calculado por el programa estadístico, ya
prácticamente no se determina manualmente. Los programas, por ejemplo,
SPSS/PASW, arrojan una tabla con varios resultados, de los cuales los más necesarios
para interpretar son el valor t y su significancia.
Consideraciones: La prueba t se utiliza para comparar los resultados de una preprueba
con los resultados de una posprueba en un contexto experimental. Se comparan las
medias y las varianzas del grupo en dos momentos diferentes: X͞ 1 × X͞ 2. O bien, para
comparar las prepruebas o pospruebas de dos grupos que participan en un
experimento:
G1 X͞1 t
G2 X ͞1 O son las pospruebas
Cuando el valor t se calcula mediante un paquete estadístico computacional, la
significancia se proporciona como parte de los resultados y ésta debe ser menor a 0.05
o 0.01, lo cual depende del nivel de confianza seleccionado (en SPSS y Minitab se ofrece
el resultado en dos versiones, según sea el caso, si se asumen o no varianzas iguales).
Lo más importante es visualizar el valor t y su significancia.
¿Qué es la prueba de diferencia de proporciones?
Definición: es una prueba estadística para analizar si dos proporciones o porcentajes
difieren significativamente entre sí. Hipótesis a probar: de diferencia de proporciones
en dos grupos.
Variable: la comparación se realiza sobre una variable. Si hay varias, se efectuará una
prueba de diferencia de proporciones por variable.
Nivel de medición de la variable de comparación: cualquier nivel, incluso por intervalos
o razón, pero siempre expresados en proporciones o porcentajes.
Procedimiento e interpretación: este análisis puede realizarse muy fácilmente en el
programa STATS, subprograma: Diferencia de dos proporciones independientes. Se
colocan el número de casos y el porcentaje obtenido para cada grupo y se calcula. Eso
es todo. No se necesita de fórmulas y tablas como se hacía anteriormente.
(HERNÁNDEZ, FERNÁNDEZ, & BAPTISTA, 2010, págs. 311-322)
Bibliografía
HERNÁNDEZ, R., FERNÁNDEZ, C., & BAPTISTA, M. (2010). Metodologia de la
investigacion. Mexico: Mc Graw Hill.
http://www.pucesi.edu.ec/web/wp-content/uploads/2016/04/Hern%C3%A1ndez-
Sampieri-R.-Fern%C3%A1ndez-Collado-C.-y-Baptista-Lucio-P.-2003.-
Metodolog%C3%ADa-de-la-investigaci%C3%B3n.-M%C3%A9xico-McGraw-Hill-PDF.-
Descarga-en-l%C3%ADnea.pdf