SPSS

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 22

SPSS

• IBM SPSS Statistics es una familia integrada de productos de software


• Permite análisis, planeación, recolección de datos, reportes y
despliegue de los resultados de procesos estadísticos.
• Funciona mediante menús desplegables, con cuadros de diálogo que
permiten hacer la mayor parte del trabajo simplemente utilizando el
puntero del ratón
• Al abrir el SPSS en su ventana de «Editor de datos»,
• Una hoja de cálculo dispuesta en:
• filas (registros, casos)
• columnas que albergarán los distintos campos (variables) de nuestro estudio.
• En la parte inferior izquierda, aparecen dos pestañas:
• «Vista de datos»
• «Vista de variables»
• SPSS. La base del software estadístico SPSS incluye estadísticas
descriptivas como la tabulación y frecuencias de cruce, estadísticas de
dos variables, además pruebas T, ANOVA y de correlación.
• Con SPSS es posible realizar recopilación de datos, crear estadísticas,
análisis de decisiones de gestión y mucho más.
• Que debemos hacer
Inspección de la base de datos
• es lo primero que, como investigadores, debemos hacer.
• observar si existe algún valor atípico que pueda influir en los resultados del grupo, o
si nos falta algún dato relevante de alguno de los sujetos, asegurándonos de que está
todo bien ordenado.
A análisis descriptivo de los datos,
• para conocer cómo se comportan las variables escogidas,
• saber cuáles son los porcentajes,
• las puntuaciones máximas y mínimas,
• media, desviación típica, etc.
Para el análisis en SPSS
• Debemos tener claro qué tipo de variables estamos estudiando.
• Si se trata de variables categóricas o nominales
• Variables Cuantitativas
• Variables Cualitativas
• Si tomamos variables cuantitativas, deberemos estudiar los índices de tendencia
central (media, mediana, moda) y de dispersión de los datos (desviación típica) para
saber cómo se reparten las puntuaciones de la variable en la muestra.
• La variable cualitativa (o variables categórica) es una variable que
pueden tomar como valores cualidades o categorías.
• Ejemplos:
• Sexo (hombre, mujer)
• Salud (buena, regular, mala)
• Educación (baja, media, alta)
• Regular, buena, muy buena, sobresaliente
Variable cuantitativa
La variable cuantitativa (o variable numérica) es una variable que toma valores numéricos.
Ejemplos:
•Número de casas (1, 2,…). Discreta.
•Edad (12,5; 24,3; 35;…). Continua.
Variable discreta 
es aquella que toma valores aislados, es decir no admite valores intermedios entre dos valores
específicos. Por ejemplo:
• El número de hermanos de 5 amigos: 2, 1, 0, 1, 3.
• Número de estudiantes de un curso, 1, 2, 3 ,4…
Variable continua
• Una variable continua es aquella que puede tomar valores comprendidos entre dos números. Por
ejemplo:
• La altura de los 5 amigos: 1.73, 1.82, 1.77, 1.69, 1.75.
• Notas de matemáticas 7,7; 8,5; 5,4 etc
Elegir el programa estadístico
• En educación y en psicología se establece el número mínimo de 30 sujetos para poder
asumir que la muestra sigue una distribución normal.
• El tamaño de la muestra. Cuando se realizan comparaciones de grupos, el número
mínimo de cada grupo será de 30.
• Si el tamaño de la muestra es menor de 30, se utilizarán análisis no paramétricos.
• La naturaleza de las variables.
• Si las variables a analizar son de carácter nominal (categóricas) u ordinal (cuasi-
cuantitativas)
• Cuando analizamos la relación entre dos variables (si es baja, moderada o intensa), tenemos
que fijarnos en si la muestra es mayor o menor de 30 y si estamos midiendo variables
cuantitativas (de intervalo), ordinales o categóricas.
Análisis paramétrico
Se basa en una serie de supuestos:
• La muestra sigue una distribución normal.
• El tamaño de la muestra es de al menos 30.
• Las variables son de naturaleza cuantitativa continua (escala o intervalo).
• Las varianzas de las muestras son homogéneas
• muestra mayor de 30 y variables cuantitativas
El estadístico a utilizar es
Coeficiente de correlación de Pearson
• realizar los análisis de correlación entre variables.
• Toma valores entre -1 y +1. El signo de la relación se refiere a la dirección de esa
relación: cuando es negativo la relación será inversa, y cuando es positivo la relación
será directa. Se calcula utilizando las puntuaciones directas de las variables.
No paramétricas
• Cuando tenemos muestras menores de 30 sujetos,
• las variables son cuantitativas continuas,
• las medidas de las variables son ordinales, o nominales, o incluso combinaciones de estas
Coeficiente de correlación de Spearman:
es similar al coeficiente de correlación de Pearson,
Toma los mismos valores que Pearson (entre -1 y +1) y se interpreta de la misma manera.
Se utiliza para buscar la relación entre variables ordinales o entre variables cuantitativas medidas sobre
muestras menores a 30 sujetos. }
Estadístico de análisis de independencia entre dos variables Chi- cuadrado de Pearson:
Se utiliza esta prueba para analizar variables categóricas, y observar si existe independencia entre ellas.
Se trata de observar los sucesos de cada variable a través de una tabla de contingencia, para conocer
la combinación de frecuencias asociadas a las variables.
No existe valores negativos
• El valor p (o p-valor)
• Es el riesgo de equivocación si se rechaza la hipótesis nula.
• Si el nivel de significación escogido es 0,05
• P valor < 0,05 Se dice existe relación. Están asociadas o existe independencia
• P valor > 0,05 Se dice no existe relación. No Están asociadas o No existe
independencia
• Se rechaza la hipótesis nula
• Se mantiene la hipótesis nula
• Estadísticamente significativo = se rechaza la hipótesis nula.
• Estadísticamente NO significativo = no se rechaza la hipótesis nula.
• Resumen de los valores del coeficiente de correlación:
• si el coeficiente es 1, significa que la relación es perfecta, esto no suele suceder en
variables psicológicas o educativas en las que existen muchas variables que influyen
sobre otra.
• si el coeficiente es cero, significa que la relación lineal entre las variables es nula.
Si el coeficiente de correlación es cercano a cero, no tiene por qué significar que no
hay relación entre las variables, sino que esa relación no es lineal.
•  si el coeficiente toma valores entre 0,1 y 0,3 la correlación se interpretará
como débil.
•  si el coeficiente toma valores entre 0,31 y 0,69 la correlación se interpretará
como moderada.
•  si el coeficiente toma valores entre 0,7 y 0,99 la correlación se interpretará
como fuerte.
COMPARACIÓN DE GRUPOS

• Este tipo de medidas son interesantes cuando queremos comprobar el efecto de


un programa de intervención,
• la realización de un curso
• algún cambio en el grupo.
• si existen diferencias en la memoria a largo plazo en un grupo de alumnos después
de haber implementado un programa de intervención,
• mediremos la memoria a largo plazo de los alumnos en el momento 1, antes de la
aplicación del programa, y después de terminar el programa, en el momento 2
Comparación de grupos
Si la muestra cumple con los supuestos de normalidad, grupos
de al menos 30 sujetos y medición de variables continuas (de
intervalo, cuantitativas), utilizaremos pruebas paramétricas.
Comparación de grupos de muestras independientes: prueba T y U de
Mann-Whitney
• Cuando nos encontramos ante dos grupos que no están
relacionados,
• Están establecidos en torno a una característica (ej.: un grupo de
estudiantes de 1º grado y un grupo de estudiantes de 2º grado, o un
grupo de niños diestros y un grupo de niños zurdos) , Niños y Niñas.
Comparación de grupos de muestras relacionadas: prueba T y Rangos con
Signos de Wilcoxon
La prueba más utilizada es la t de Student para muestras relacionadas. Se basa
en aspectos similares a la t de Student para muestra independientes, aunque medirá la
diferencia de las puntuaciones en los mismos sujetos en el momento 1 y en el
momento 2 (a esto se le llama en muchos diseños medidas pre-test y medidas post-
test).
• la prueba no paramétrica de los Rangos con Signos de Wilcoxon
• El estadístico será la prueba de Wilcoxon, sobre el que se calculará el p-valor,
para establecer la significación estadística de la prueba.
• La prueba Z de Kolmogorov-Smirnov, que se basa en las diferencias entre las
frecuencias relativas acumuladas.
• Otras pruebas rachas de Wald-Wolfowitz, que busca si existen diferencias entre las
puntuaciones de los grupos,
• El análisis de varianza (ANOVA) de un factor nos sirve para
comparar varios grupos en una variable cuantitativa. Esta
prueba es una generalización del contraste de igualdad de
medias para dos muestras independientes. Se aplica para
contrastar la igualdad de medias de tres o más poblaciones
independientes y con distribución normal.

También podría gustarte