Tema 4-Psicometría UNED
Tema 4-Psicometría UNED
Tema 4-Psicometría UNED
1.- INTRODUCCIÓN
2º Supuesto La correlación entre las puntuaciones verdaderas de “n” sujetos en un test y los
r ve = 0 errores de medida = 0 (no hay relación entre ellas)
3º Supuesto La correlación entre los errores de medida (re1 re2) que afectan a las puntuaciones
re1 re2 = 0 de los sujetos en dos test diferentes (X1 y X2) es = 0
r xe = Se / Sx
La correlación entre las Punt. Empíricas y los errores = cociente entre la Desv. Típica de los errores
y la Desv. Típica de las Punt. Empíricas.
Si a una misma muestra se aplican dos test (X y X´) podemos considerar que son paralelos sí además
de los supuestos anteriores se cumplen las (condiciones de paralelismo):
1º Supuesto
X = V + E // X´= V + E´ Las puntuaciones verdaderas de los sujetos son iguales en ambos test
2º Supuesto
S2e = S2e´ La varianza de los errores de medida es la misma en ambos test
De estas dos condiciones de paralelismo se obtienen las siguientes deducciones:
X =V+ E=V⇒ X =V X = V+ E= V⇒ X =V
La media de las puntuaciones de dos test paralelos es la misma
rX1 X 2 = rX1 X 3 = rX 2 X 3 = .... = rX j X k En dos o más test paralelos las intercorrelaciones entre cada dos
de ellos son iguales.
S e2 Se
⇒ rXX ´ = 1′ − = 1 − rxe2 ⇒ rxe = ⇒ rxe = 1 − rxx´
SX2
SX
Es decir, la correlación entre las puntuaciones empíricas y los errores de medida (r XE) se puede
obtener a partir de la correlación entre las puntuaciones obtenidas por los sujetos en las dos
formas paralelas del test.
En Psicometría el error de medida se define como la diferencia entre la puntuación empírica obtenida
por un sujeto en un test y su puntuación verdadera (entendiendo por test cualquier instrumento de
medición psicológica). Al aplicar “n” veces un test a un sujeto sus puntuaciones serán muy parecidas
pero no iguales (es conveniente construir pruebas que den lugar al mínimo error de medida posible)
No siempre los errores son debidos al instrumento de medición, también se deben a cambios que se
producen en el sujeto y que pueden atribuirse a diversas razones: motivación, condiciones físicas o el
mero azar; se trata de errores aleatorios e impredecibles con los que hay que contar y que hay que
tratar de controlar para que no interfieran en las predicciones que podemos hacer sobre la capacidad
del sujeto.
Longitud del test (Ecuación de Spearman-Brown) Cuanto más ítems representativos se utilicen,
habrá mayor información del atributo que estudiamos, menor error y mayor fiabilidad (al aumentar la
longitud del test, aumenta su fiabilidad)
Ecuación de Spearman-Brown (se refiere al caso en que se quiere aumentar la longitud del test
inicial n veces):
CASO GENERAL
Relaciona la fiabilidad y la longitud cuando RXX´ = coeficiente de fiabilidad del test alargado
los ítems a añadir son paralelos o acortado.
n rXX´ n rXX´ n = número de veces que se aumenta o
RXX´ = ---------------------- = --------------------- disminuye la longitud del test.
1+ n rXX´ - rXX´ 1 + (n – 1) rXX´ rXX´ = coeficiente de fiabilidad del test inicial.
N ∑ X1 X 2 − ∑ X1 ∑ X 2
rxx ' = rx1x2 = X1 y X2: Puntuaciones
obtenidas en cada una
N X2−
∑ 1 (∑ X 1 ) N ∑ X 22 − (∑ X 2 )
2 2
de las formas.
El coeficiente de fiabilidad también se llama coeficiente de equivalencia.
MÉTODO TEST-RETEST
N ∑ X1 X 2 − ∑ X∑ X X1 y X2: Puntuaciones
rX X ´ = rx1x2 = 1 2
obtenidas en cada
N X2 − ( ∑ X ) N ∑ X − ( ∑ X 2 )
∑ 1
1 1 2 2 2
aplicación.
1
2
El coeficiente de fiabilidad así obtenido se llama coeficiente de estabilidad.
El cálculo es idéntico en las dos formas. La única diferencia es que en lugar de aplicar dos formas, en
el test – retest emplea la misma en dos momentos diferentes.
A veces sólo se puede aplicar una vez el test, por lo que no es posible utilizar los métodos anteriores.
Los siguientes métodos se utilizan para estimar la fiabilidad de un test (sólo requieren una aplicación y
aportan un índice de la consistencia interna de las respuestas de los sujetos):
Procedimiento: Se aplica el test a una muestra y se divide el test en dos mitades, calculando la
correlación entre ellas y aplicando una fórmula de corrección. Las divisiones deben ser similares en
dificultad y contenido para que la correlación se aproxime al valor máximo posible.
Cuando se utiliza el método de la división del test en dos mitades, la fiabilidad se puede estimar
mediante las siguientes fórmulas: Spearman-Brown, Rulon, Guttman-Flanagan.
Fórmula de Rulon: Se usa cuando, no siendo las dos mitades estrictamente paralelas, podemos
considerarlas τ -equivalentes (según Lord y Novick son los test en los que las puntuaciones
verdaderas son iguales para un grupo de sujetos en ambas formas, pero las varianzas de error
no tienen por qué ser iguales). Asimismo, los test esencialmente τ -equivalentes son aquellos
en los que la puntuación verdadera de cada sujeto en uno de los tests es igual a la del otro más
una constante. En ambos casos se supone la igualdad de las varianzas verdaderas de ambas
mitades.
S2d S2p-i
rXX´ = 1 - ------- = 1 - -------- d = diferencias entre puntuaciones pares e impares de cada
S2X S2 X sujeto.
S2d = S2p-I = varianza de la diferencia entre las puntuaciones pares
S2d = [∑d2 / N – (∑d / N)2] e impares.
S2X = varianza de las puntuaciones empíricas de los sujetos.
S2d = S2p-I = S2p + S2i – 2rpi Sp Si rpi = correlación entre las puntuaciones de las dos mitades.
S p2 + Si2 S2p y S2i = varianza de las puntuaciones en los ítems pares e impares.
Rxx = 2 1 − ÷÷
S 2 S2X = varianza empírica del test total.
x rpi = correlación entre las puntuaciones
n
n
∑∑ cov ( jk ) ÷
n n ( r1 ) n Sx − ∑ S j
2 2
n ∑ S 2j
α = j≠ k
÷ = = ÷÷ = 1 − ÷
n − 1 2
Sx ÷ n − 1 1 + ( n − 1) r1
n − 1 2
Sx n− 1 S x2 ÷
÷
Inferencias sobre α De los problemas de las inferencias de alpha se desarrolló la teoría muestral
para el coeficiente alpha. Kristof y Feldt derivaron un estadístico de contraste del coeficiente alpha que
se distribuye según una F de Snedecor, para determinar el intervalo confidencial de α en la población.
Inferencias para un solo valor de α Para F se distribuye son N-1 y (n-1) · (N-1) gl.
saber si α toma un determinado valor en la α = valor propuesto en la hipótesis para la población.
población o para saber entre que valores se α = Valor alfa obtenido en la muestra.
encuentra α en la población usamos: N = nº de sujetos // n =nº de ítems.
1− α Se trata de comprobar si F empírica se encuentra
F=
1− α entre los valores F teóricos obtenidos con los gl
y el nivel de confianza.
Inferencias (muestras independientes)
W se distribuye según la F con (N1 - 1) y (N2 -1) g.l.
Dos muestras: W (comprueba H0: α1 = α2) α 1 y α 2 = valores del coeficiente α en cada muestra.
N1 y N2 = nº de sujetos de cada muestra.
1− α 1
W =
1− α 2
UX1= distribución χ 2 con n-1 gl.
K = nº muestras.
“K” Muestras: UX1 )
2
α i = Valor del coeficiente α para cada muestra.
( 1 − α i ) 3 − u
n
) −1 u = Media de los coeficientes transformados.
∑
( )
− 1/ 3
UX 1 = n 1 − αµi
u= ∑
2
S
i= 1 n
S = Media aritmética de las varianzas de cada
n
S2 ~ N (n )
muestra. S = ∑ i Ni = i i− 1
2
i= 1 n ni + 1
2 Ni = nº de sujetos en cada muestra
Siendo Si =
2
~ ni = nº de ítems en cada test.
9( N − 1)(1 − αˆ i ) 2 / 3
Inferencias (muestras dependientes) En
algunos diseños se pueden administrar distintas t = Distribución t de Student (N-2) gl.
pruebas a la misma muestra, con lo que los
coeficientes son dependientes y debemos emplear
αµ1 y α¶ 2 = valores del coeficiente alfa
otro tipo de contrastes: N = número de sujetos de la muestra.
rx21x2 = Correlación de puntuaciones en los 2 test.
Dos muestras: (N · n ≤ 1000)
S2 − C 2
Donde Si
2
= ~
9( N − 1)(1 − αˆ i ) 2 / 3
Donde C = Media de las covarianza Sij. n
~ N (n~ − 1 ) ñ=
2rij2 N =
n
1
∑
y
C= ~ n~ + 1
( )
9 N − 1 (1 − αˆ i ) (1 − αˆ j )
1/ 3 1/ 3
i= 1 ni
ni = nº de ítems de cada test.
n 1 Coeficientes Omega
Coeficientes Theta θ = (1 − ) n n
n− 1 λ1
∑ S − 2
j ∑ S 2j h 2j
Ω = 1− j= 1 j= 1
Ω = 1−
n− ∑h 2
j
n = nº de ítems del test. n n
n + 2∑ r h
λ1 = primer auto valor de la matriz factorial ∑∑ cov( X j , X h ) j
COEFICIENTE BETA (β) DE RAJU Facilita una estimación de la fiabilidad de un test compuesto de
varios subtest con distinto nº de ítems (con el alfa de Cronbach no es posible). Se aplica cuando no
conocemos las puntuaciones de los sujetos en los ítems de los distintos subtest; en caso de
conocerlos, es preferible emplear el coeficiente α.
k k = nº de subtests.
S x2 − ∑ j= 1
S 2j S x2 = Varianza del test.
β =
S 2j = Varianza de cada subtest.
nj
2
k
S x2 1 −
∑j = 1 n ÷ ÷÷ nj = nº de ítems de cada subtest.
n = nº de ítems del test.
1.- Estimación mediante la desigualdad de Chebychev (cuando no se hace ningún supuesto sobre la
distribución de las puntuaciones empíricas o de los errores)
1
1− = Nivel de confianza utilizado
K2
1
∀K {
P X−V }
≤ K ( Se ) ≥ 1 − K2
Se = error típico de medida.
2.- Estimación basada en la distribución normal de los errores: Asume una distribución normal de
los errores de medida (con media 0 y varianza S 2e) y de las puntuaciones empíricas condicionadas a un
determinado valor de V. Pasos para determinar el intervalo:
3.- Estimación basada en el modelo de regresión: mientras que la correlación entre las puntuaciones
verdaderas y los errores de medida es igual a cero (rVE = 0); la correlación entre las puntuaciones
empíricas y los errores de medida se ve afectada por los errores rxe = 1 − rxx ≥ 0
Valor máximo cuando la fiabilidad del test es nula (rXX´ = 0) Puntuaciones empíricas = Errores
Valor mínimo cuando la fiabilidad del test es perfecta (rXX´ = 1) Punt. Empíricas = Punt. Verdaderas
El intervalo de confianza se hace sobre la puntuación verdadera estimada por regresión lineal: