5° Semana Analisis Multivariante

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 61

“Año del Buen Servicio al Ciudadano”

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS


Universidad del Perú, DECANA DE AMERICA
FACULTAD DE CIENCIAS MATEMÁTICAS
UNIDAD DE POSGRADO

ANÁLISIS MULTIVARIANTE
Mg. María Estela Ponce Aruneri
mponcea@unmsm.edu.pe
SEMESTRE 2017 –I
Sesión 5
2 de Mayo
ANÁLISIS
FACTORIAL
INTRODUCCIÓN

En 1904 Karl Spearman (psicológo inglés) publicó


“General intelligence objectively determined and
measured” (American Journal of Psychology), primer
modelo de un sólo factor. Su trabajo considera que las
distintas medidas de inteligencia pueden resumirse en un
solo factor general denominado “Factor g”.

En 1947 Thurstone escribe “Múltiple Factor Analysis” e


incorpora al análisis factorial el álgebra matricial para el
análisis de correlaciones.

3
¿QUÉ ES EL ANÁLISIS FACTORIAL?

El Análisis Factorial es un método de interdependencia del


Análisis Multivariante, es dirigida por las variables y puede
trabajarse a nivel exploratorio y/o confirmatorio.

Este método trata de explicar las relaciones de un conjunto


grande de variables cuantitativas observables : x1, x2, x3,…,
xp , mediante un espacio de pequeña dimensión denominado
Espacio Factorial .

4
el cual está formado por un número reducido de variables no
observables denominado factores o variables latentes no
medibles: f1, f2, … , fk, con k<p y que son de interés para el
investigador.

El espacio factorial permitirá analizar las similitudes entre los


elementos de la muestra respecto a su comportamiento en el
conjunto de variables.

La aplicación del Análisis Factorial se basa en el supuesto de


la existencia de pocos factores que hacen posible la
correlación entre las variables cuantitativas observadas.
5
X3
X1 X6 X7
X2 X4
X5
El Análisis Factorial puede ser :
1º Exploratorio, no se conoce a priori el número de factores,
en la aplicación empírica se determina el número de factores 6

a utilizar.
2º Confirmatorio, los factores son fijados a priori, se utiliza
hipótesis empíricas para su verificación.

Nos centraremos en el Análisis Factorial Exploratorio


dado que el Análisis Factorial Confirmatorio se suele
estudiar como un caso particular de los Modelos de
Ecuaciones Estructurales.

Los interesados en el AFC, revisar el libro Principles


and Practice of Structural Equation Modeling de Rex B.
Kline (2011) en el que se hace una buena exposición de
dicho tipo de modelos.

7
PREGUNTAS QUE AYUDA A RESOLVER AF

¿Cuáles son los factores de trastornos de personalidad?


¿Qué modelos de personalidad existen?
¿Qué tipos de aptitudes hay que tener en cuenta para
evaluar la labor de un vendedor? ¿Cómo se pueden medir?
¿Cómo medir el grado de inteligencia de una persona?
¿Existe un único tipo de inteligencia o hay varios? ¿Si
existen varios cómo medirlos?
¿Qué factores conforman la personalidad de un individuo?
¿Cómo medirlos?
¿Cómo medir las inteligencias múltiples?
¿Cuáles son las aptitudes sociales de un grupo de
personas? 8
¿CUÁLES SON LAS RAZONES PARA UTILIZAR EL
ANÁLISIS FACTORIAL?

1º Se utiliza para explorar la posibilidad de agrupamientos de


variables en factores, a partir de las correlaciones que se
establecen entre ellas (AFE).

2º Para validar constructos (AFC).

3º Construcción de medidas complejas, elaboración de tests


e instrumentos de obtención de datos sociológicos,
econométricos, biológicos, etc.
4° Evaluar la confiabilidad de un instrumento (AFE).
9
2. OBJETIVOS

1º Encontrar si existe, un conjunto pequeño de variables


incorrelacionadas, que expliquen las relaciones existentes
entre las variables originales.

2º Determinar el número de variables subyacentes o factores.

3º Interpretar las nuevas variables.

4º Evaluar cada una de las observaciones (individuos, unidades


experimentales, etc.) en las nuevas variables. Emplear estas
nuevas variables en otros análisis estadísticos.
10
3. DISEÑO DEL ANÁLISIS FACTORIAL

• Utilizar la Matriz de Correlación

• Selección de variables y medición: Se deben incluir todas


las variables que se consideren conveniente para
representar los factores (5 ó más variables por factor
sugirieron Tabachnick y Fidell en 1989). Las variables
deben ser medidas en escala métricas.

• Tamaño de la muestra, al respecto hay varias propuestas:


• Comrey, considera que 50 es un tamaño muestral muy
pobre y 1000 excelente.
• Otros señalan que un tamaño muestral de 100 es pobre,
200 justo, 300 bueno y 500 muy bueno.

11
4. ETAPAS DEL ANÁLISIS FACTORIAL

FORMULACIÓN DEL PROBLEMA


REESPECIFICACIÓN
DEL MODELO
CONSTRUIR ESTADÍSTICAS
DESCRIPTIVAS Y LA MATRIZ DE
CORRELACIÓN VALIDACIÓN DEL
MODELO
EXTRACCIÓN DE FACTORES

•PUNTUACIONES
DETERMINAR EL NÚMERO DE FACTORIALES
FACTORES •SELECCIÓN DE
VARIABLES
REPRESENTATIVAS
ROTACIÓN DE FACTORES
INTERPRETACIÓN DE 12
FACTORES ANÁLISIS POSTERIORES
5. SUPUESTOS

Como paso previo para aplicar el análisis factorial, se requiere


preparar los datos, para comprobar su adecuación a los
objetivos de la investigación, así como la verificación de los
supuestos que nos muestre la factibilidad de aplicar el análisis
factorial.

1°Aunque pueden realizarse análisis factorial con variables


discretas y/o ordinales, lo habitual es que las variables sean
cuantitativas continuas.
2° Tamaño de muestra grande.
3º La Normalidad Multivariada( no indispensable) : Gráficos
de probabilidad normal y pruebas de hipótesis.
4° Las Variables deben estar correlacionadas. 13
5°Linealidad entre las variables: Gráficos de dispersión.
PARA VERIFICAR EL GRADO DE CORRELACIÓN DE
LAS VARIABLES BAJO ESTUDIO:

1º Matriz de Correlaciones entre las variables y su nivel de


significación, la mayoría de las correlaciones debe superar el
0.30, en caso contrario debería reconsiderarse utilizar el análisis
factorial.
2º Determinante de la matriz de correlaciones, si el valor del
determinante es pequeño, cercano a cero; indica la existencia de
variables altamente correlacionadas.
3º Test de Esfericidad de Bartlett, se utiliza para verificar la
hipótesis:
p( p  1)
Ho :  = I nLn R  q2 q
2
H1 :   I 14
Rechazar esta hipótesis significa que es pertinente aplicar el
análisis factorial, en caso contrario habría que optar por otro
método multivariado.

4º Indice de KMO (Kayser- Meyer- Olkin, 1970), compara las


magnitudes de los coeficientes de correlación observados con
las magnitudes de sus coeficientes de correlación parcial.

 ij
r 2

i 1 j i
KMO 

i 1 j i
rij2  
i 1 j i
2
Sij

rij : coeficiente de correlación simple.


sij: coeficiente de correlación parcial. 15
0.90  KMO 1 muy bueno.
0.80  KMO < 0.90 bueno.
0.70  KMO < 0.80 aceptable.
0.60  KMO < 0.70 mediocre.
0.50  KMO < 0.60 malo.
KMO < 0.50 inaceptable.

5º Correlación Anti-imagen, es el negativo del coeficiente de


correlación parcial, nos interesa que la mayoría de las
correlaciones anti-imagen sean pequeños para aplicar el
análisis factorial.
6º Medida de Adecuación de la Muestra, se calcula para cada
variable.
Coeficientes MSA bajos ( cercanos a cero), indican que no es
conveniente aplicar el análisis factorial. Si estos valores bajo se
16
presentan en pocas variables, se podrían eliminar dichas
variables, si sus comunalidades no son muy altas.
 ij
r 2

i j
MSAi  i  1, 2,..., p

i j
rij2  
i j
2
s
ij

7º Correlación Múltiple, el coeficiente de correlación múltiple


para cada variable, es un indicador del grado de asociación;
las variables con bajo coeficiente de correlación múltiple se
podrían eliminar del análisis.

El coeficiente de correlación múltiple coincide con las


comunalidades iniciales, cuando el método de extracción de
factores no es el de componentes principales.
17
Ejemplo

Verifique si las base de datos Indicadores del Progreso


Social 2016, cumple con las condiciones para aplicar
análisis factorial.

Objetivo: determinar los factores que caracterizan a los


países con respecto a su progreso social.

18

18
Variables:

x1 Nutrición y atención médica básica


x2 Agua y salubridad
x3 Abrigo
x4 Seguridad personal
x5 Acceso a los conocimientos básicos
x6 Acceso a la información y las comunicaciones
x7 Salud y bienestar
x8 Calidad del medio ambiente
x9 Derechos personales
x10 Libertad personal y de elección
x11 Tolerancia e inclusión
x12 Acceso a la educación superior 19
¿ Es posible aplicar Análisis
Factorial?
¿Se cumplen la mayoría de
los supuestos?

20
MODELO FACTORIAL

X  ΛF  ε
Se le denomina modelo factorial con “ k” factores comunes
y con X centrado, donde :

F: vector de variables latentes (factores no observados) con


distribución (0, I); de orden kx1, matriz de factores
comunes.

: matriz de orden pxk, denominada matriz de cargas


factoriales.

 : vector de orden px1, perturbaciones no observadas con 21


distribución (0, ). Matriz de factores específicos.
21
 x1    11  12 ..........  1k   f 1   1 
 x    22 ...........  2k   f 2    2 
 2    21   
 .   . . ........... .  .   . 
      
 x p   p1  p2 ...........  pk   f k   p 

jk : cargas de los factores , muestra como cada xj depende de


factores comunes y se utiliza para interpretar los factores.
ψ1 0 .......... 0
 0 ψ .......... . 0 
 2 
. . .......... . . 
 
 0 0 .......... . ψp 

Matriz de varianzas específicas. 22


HIPÓTESIS BÁSICAS

i)E(F)  0 y Cov(F)  E(FFT )  I  F  ( 0, I ).

ii)E(ε)  0 y Cov( εεT )  Ψ    ( 0,  )

iii) F y  son independientes

23
Estructura de la Matriz de Covarianzas de X

se le denomina ecuaciones del análisis por factores. De


ellas se obtiene:

Var(xj) = comunalidad + varianza específica

La comunalidad hj2 es la proporción de la varianza de la


j-ésima variable explicada por los factores comunes. 24
Las comunalidades tras la extracción nos dan una idea de la
calidad de representación de las variables originales en los
factores retenidos en el análisis.

j :recoge la variabilidad no compartida con las otras


variables.

es la carga de la j-ésima variable sobre el k-ésimo factor.

Covarianza entre xi y xj, sólo depende de los factores


comunes
25
En la práctica se tienen que estimar los parámetros del
ˆ muestra,
modelo a partir de unaΛ, Ψˆ de modo que el problema se
centra en encontrar los valores
tales que la matriz de covarianzas muestral S es
aproximadamente:

ˆ ˆ ' Ψ
S  ΛΛ ˆ

26
Estructura de la matriz de Correlaciones de X

En este caso la matriz de cargas factoriales es la matriz


de correlaciones entre las variables estandarizadas y los
factores. 27
La matriz de correlaciones muéstrales es aproximadamente:

ˆ ˆ ' Ψ
R  ΛΛ ˆ

una vez que se ha determinado que el Análisis Factorial es


apropiado para analizar los datos, debe seleccionarse el
método adecuado para la extracción de los factores. Existen
diversos Métodos cada uno de ellos con sus ventajas e
inconvenientes.

En el modelo factorial, el problema consiste en cuantificar


la matriz de cargas factoriales  que explica X en función
de los factores. A partir de esta expresión se deduce la
llamada identidad fundamental del Análisis Factorial: 28
Rρ =  ´ + ψ

Matriz de correlación poblacional de las p variables X.

29
LA ESTIMACIÓN DE LOS FACTORES
Existen varios métodos para estimar o extraer los factores
comunes:

1º Componentes principales

2º Ejes principales o factor principal, método utilizado para


casos de las Ciencias Sociales. Sólo analiza la Varianza
común. A partir de la matriz reducida se procede a extraer los
factores; la condición que se requiere es que sea máxima la
contribución de cada factor a la comunalidad total.
30
Este método tiene la ventaja de estar basado en el modelo del
Análisis Factorial por lo que suele proporcionar mejores
estimaciones que el método anterior.
Sin embargo, no está garantizada su convergencia, sobre todo
en muestras pequeñas.
R* = R-Ψ =  ’
3º Máximo Verosimilitud, requiere el supuesto de normalidad
multivariada. El objetivo principal es encontrar aquella
configuración exacta de los parámetros poblacionales
(maximizando: probabilidad de reducir R, determinante de la
matriz de correlaciones parciales) y comprobar la bondad del
ajuste de un modelo factorial concreto. El método tiene la
ventaja sobre los dos anteriores de que las estimaciones
obtenidas no dependen de la escala de medida de las variables. 31
4º Mínimos cuadrados no ponderados o generalizados,
objetivo minimizar la correlación residual, así como también
prueba la bondad de ajuste del modelo.
5º Factorización alfa, busca maximizar alpha Cronbach de
los factores; los pesos o coeficientes factoriales se obtienen de
tal forma que los factores comunes extraídos tengan
correlaciones máximas con los factores comunes
correspondientes. Estimaciones factoriales en este caso son
independientes de la escala de medición.
6º Factorización imagen, el principio que rige la extracción
de factores es el de la covarianza de las estimaciones de cada
variable regresionada en las demás variables.
32
Los procedimientos mencionados, proporcionan resultados
similares cuando:
1.- Se incrementa el número de observaciones y variables.
2.- Las comunalidades se aproximan a uno.

CRITERIOS PARA LA SELECCIÓN DEL NÚMERO DE


FACTORES

1º Autovalores o raíz latente, es la varianza total explicada por


cada factor (propuesto por Kayser en 1958), quien sugiere
incluir a todos los factores cuyos autovalores superen la
unidad. Este procedimiento es conservador si el número de
variables es inferior a 20. Este método es adecuado cuando el
número de variables en menor o igual a 40 y si el tamaño de la
muestra es grande. 33
2º Porcentaje de varianza total atribuible a cada factor, se
utiliza para obtener un porcentaje acumulado de varianza
mínima. No se ha establecido un punto de corte absoluto
que determine el número de factores a considerar. Por
ejemplo en las Ciencias Sociales se considera como
porcentaje mínimo el 60% de la varianza total debido a “la
menor precisión” de la información que se analiza en ese
sector.

3º Gráfico de sedimentación, fue propuesto por Catell en


1966. El número de factores está determinado por el punto
de inflexión de la trayectoria de la caída de la pendiente de
la curva.

34
4º Significatividad, se verifica mediante pruebas
estadísticas que se utilizan, cuando los factores son
extraídos mediante el método de máxima verosimilitud o
mínimos cuadrados.

5º Interpretabilidad, luego de determinar el número de


factores a considerar en nuestra investigación, se debe
comprobar si dichos factores tienen un significado
sustantivo. Se puede optar por rotar la matriz o excluir el
factor pobremente definido.

35
CRITERIOS PARA EVALUAR LA SIGNIFICACIÓN
DE LAS CARGAS FACTORIALES

Significancia práctica, basada en una regla empírica, consiste


en un análisis preliminar de la matriz de factores:

•Cargas factoriales de  0.30 están en el nivel mínimo.


•Cargas factoriales de  0.40 se pueden considerar como
importantes.
•Cargas factoriales mayores o iguales a  0.50 se pueden
considerar como significativas.
•Cargas factoriales que superen 0.80 no son normales.
Estos criterios son válidos cuando el tamaño de la muestra
supera a 100.
36
INTERPRETACIÓN DE LA MATRIZ DE
FACTORES

Λ̂
1. Matriz factorial o matriz de factores , contiene los pesos,
coeficientes o cargas factoriales. Con los factores
ortogonales y los datos estandarizados, estas cargas son
equivalentes a las correlaciones entre variables y factor.
2. , indica la proporción de la varianza de la variable
explicada por el respectivo factor.
3. Los autovalores para cada factor se obtienen :

sumando los cuadrados de las cargas factoriales de cada 37


variable en el factor correspondiente.
4. Porcentaje de la varianza explicada por cada factor, se
obtiene a partir de:

Si se trabaja con la matriz de correlación se divide entre el


número de variables.

5. La comunalidad:
La comunalidad para cada variable, es la suma de los
cuadrados de las cargas factoriales en todos los factores.
Indica la proporción de la varianza de cada variable que es
explicada por los factores comunes. Las comunalidades
suelen estimarse mediante procesos iterativos de ajuste
38
continuo entre las matrices de correlación observada y la
reproducida.
6.- La varianza específica estimada, indica la proporción de la
varianza de la variable que no es explicada por los factores
comunes.

7.- Matriz de correlación reproducida, en la diagonal


principal se ubican las comunalidades. Los residuales que
aparecen en esta matriz es la diferencia entre las
correlaciones estimadas y las observadas.
ˆi1ˆ j1  ˆi 2ˆ j 2  .........  ˆik ˆ jk
8.- Asignar un nombre a cada factor, esta tarea la realiza el
investigador, de acuerdo a las variables con mayores cargas
factoriales, de acuerdo a la conveniencia para representar las
dimensiones subyacentes de un factor concreto, entre otras. 39
z1  ˆ11 F 1 ˆ12 F 2 .........  ˆ1k F k
z  ˆ F ˆ F .........  ˆ F
2 21 1 22 2 2k k

.
.
z p  ˆp1 F 1 ˆp 2 F 2 .........  ˆpk F k

40
Rotación de factores
Cuando no se puede interpretar con claridad los factores; la
rotación facilita la interpretación de la matriz factorial,
redistribuyendo la varianza de los primeros factores a los
últimos, para encontrar un patrón de factores más simple y
significativo.
Los métodos de rotación intentan aproximar la solución
obtenida al Principio de Estructura Simple (Thurstone,
1935) según el cual la matriz de cargas factoriales debe
reunir las siguientes características:

1) Cada factor debe tener unos pocos pesos altos y los otros
próximos a cero.
2) cada variable no debe estar saturada más que en un factor. 41
3) No deben existir factores con la misma distribución, es
decir,
dos factores distintos deben presentar distribuciones
diferentes de cargas altas y bajas.

De esta forma, dado que hay más variables que factores


comunes, cada factor tendrá una correlación alta con un
grupo de variables y baja con el resto de variables.
Examinando las características de las variables de un grupo
asociado a un determinado factor se pueden encontrar rasgos
comunes que permitan identificar el factor y darle una
denominación que responda a esos rasgos comunes.

Las rotaciones no cambian el valor de las comunalidades y


por lo tanto no afectan las varianzas específicas de las 42
variables, aunque cambie la matriz factorial (cargas
factoriales).
Rotación ortogonal de los factores F1 y F2

43
Varimax, minimiza el número de variables que tienen las
mayores cargas factoriales en cada factor, maximizando la
varianza de las cargas factoriales al cuadrado. Es el más
empleado. Simplifica la interpretación de los factores.
El método varimax determina la matriz B de forma que se
maximice la suma de las varianzas:

Quartimax, El objetivo de este método es que cada variable


tenga correlaciones elevadas con un pequeño número de
factores. Para ello busca maximizar la varianza de las
cargas factoriales al cuadrado de cada variable en los 44
factores, es decir, el método trata de maximizar la función:
El método es tanto más clarificador cuanto mayor número de
factores se hayan calculado.

Equamax, este método busca maximizar la media de los


criterios anteriores. Suele tener un comportamiento similar a
uno de lo dos métodos anteriores.

2.-Rotación Oblicua, los ejes factoriales en este caso, pueden


estar separados por un ángulo inferior a 90º, los factores no
estarán en este caso incorrelacionados ( no cumpliría uno de
las hipótesis básicas del modelo factorial).
45
Si embargo esto puede ser compensado por el hecho de
encontrar una asociación más nítida entre las variables y los
factores correspondientes.
Se recomienda aplicar estos métodos si el número de
observaciones por factor es elevada.

46
Oblimin, busca minimizar la siguiente expresión:

controla la interpretabilidad de los factores

controla la ortogonalidad de los

factores

Para un valor α = 1 se alcanza el máximo grado de oblicuidad


y cuanto más cerca de 0 toma sus valores, más ortogonales 47
son los factores.
En la rotación oblicua las cargas factoriales no coinciden
con las correlaciones entre el factor y la variable, puesto que
los factores están correlacionados entre sí.
Por eso, los paquetes estadísticos calculan dos matrices: la
matriz de cargas factoriales que muestra la contribución
única de cada variable al factor y la matriz de estructura
factorial que muestra las correlaciones entre los factores y
las variables y que contiene información acerca de la
contribución única y de las correlaciones entre factores.
Además de estas dos matrices, es importante analizar
también la matriz de correlaciones entre factores. Si las
correlaciones entre los factores son muy pequeñas es más
robusto aplicar rotaciones ortogonales; y si dos factores
están muy correlacionados puede ser señal de que estén
midiendo el mismo concepto y que, sea necesario reducir el 48
número de factores.
Promax, consiste en alterar los resultados de una rotación
ortogonal hasta crear una solución con cargas factoriales lo
más próximas a la estructura ideal. Dicha estructura se
obtiene elevando las cargas factoriales obtenidas en una
rotación ortogonal, a una potencia que suele estar entre 2 y
4. Cuanto mayor es esta potencia más oblicua es la solución
obtenida.

Si H es la matriz de cargas buscada el método promax


busca
una matriz T tal que T = H. Multiplicando ambos
miembros por la matriz (’ )-1  ' se tiene que T = (’
)-1  'H.
49
PUNTUACIONES FACTORIALES
Son las proyecciones de cada individuo de la muestra
sobre cada uno de los factores elegidos. Para El Modelo
Factorial :

se requiere estimar F*. Existen diversos métodos de


estimación de la matriz F*. Se puede demostrar que los
factores no son, en general, combinación lineal de las
variables originales. Además, en la mayoría de las
situaciones, no existirá una solución exacta ni siquiera
será única.

Las posibilidades de analizar las puntuaciones factoriales


de los individuos son muy variadas dependerá de lo que 50
se desea investigar:
1° Conocer qué individuos son los más raros o extremos,
es decir, la representación gráfica de las puntuaciones
factoriales para cada par de ejes factoriales puede ayudar a
detectar casos atípicos.

2° Conocer dónde se ubican ciertos grupos o subcolectivos


de la muestra (los jóvenes frente a los mayores, los de
clase alta frente a los de baja, los más católicos frente a los
no católicos, los de una provincia frente a los de otras
provincias, etc).

3° Conocer en qué factor sobresalen unos sindividuos y en


qué factor no.

4° Explicar, analizando información anterior, por qué han 51


aparecido dichos factores en el análisis realizado.
El Análisis Factorial es en otras ocasiones un paso previo
a otros análisis, como por ejemplo, Regresión Múltiple o
Análisis Cluster, en los que se sustituye el conjunto de
variables originales por los factores obtenidos. Por ello,
es necesario conocer los valores que toman los factores
en cada observación.

Todos los métodos de obtención de puntaciones


factoriales
parten de la expresión:

Z = F**’ +  con E[]=0, Var[ ] =


a partir de la cual buscan estimar el valor de F*.
52
MÉTODOS PARA ESTIMAR LOS
COEFICIENTES DE LAS PUNTUACIONES
FACTORIALES

1º Regresión de Thompson.- Los coeficientes de las


puntuaciones factoriales en este caso tienen una media
0 y una varianza igual al cuadrado de las correlaciones
múltiples entre las puntuaciones estimadas de los
factores y los valores verdaderos de los factores.
Pueden estar correlacionados incluso cuando se asume
que los factores son ortogonales.
Para datos normalmente distribuidos, se tiene que :

53
El vector estimado de las puntuaciones factoriales (método
MC), para el r-ésimo individuo es :

Algunos paquetes estadísticos reemplazan la matriz de


correlación muestral por la matriz de correlación reproducida:

2º Bartlett.- Los coeficientes de las puntuaciones factoriales


tienen media 0. Minimiza la suma de cuadrados de los únicos
factores sobre el rango de las variables. Aplica el método de
MCG. 54
Hallar F que minimice:

Para un dado, la expresión anterior se minimiza cuando:

es el vector de las puntuaciones estimadas factoriales para


el r-ésimo individuo.

3º Anderson – Rubin.- Es una modificación del método de


Bartlett que aseguran ortogonalidad de las puntuaciones
factoriales estimadas. Tienen una media 0 y una desviación 55
típica de 1.
Utiliza el método de los mínimos cuadrados generalizados
pero imponiendo la condición adicional F’F = I
Ê= (’ Ψ-1RΨ-1 )-1 ’Ψ-1Z
Comparación de los tres métodos
1)El método de regresión proporciona puntuaciones con
máxima correlación con las puntuaciones teóricas. Sin
embargo, el estimador no es insesgado, ni unívoco y, en el
caso de que los factores sean ortogonales, puede
proporcionar puntuaciones correlacionadas.

2) El método de Bartlett proporciona puntuaciones


correlacionadas con las puntuaciones teóricas, insesgadas y
unívocas. Sin embargo, en el caso de que los factores sean
ortogonales, puede proporcionar puntuaciones 56
correlacionadas.
3) El método de Anderson-Rubin proporciona puntuaciones
ortogonales que están correlacionadas con las puntuaciones
teóricas. Sin embargo, el estimador no es insesgado, ni
unívoco
ESTIMACIONES DE LAS PUNTUACIONES
FACTORIALES
Estos métodos proporcionan:

Valor estandarizado para la i-ésima variable en la j-


ésima observación.

Es el coeficiente de la puntuación factorial para la


i-ésima variable del k-ésimo factor. 57
VALIDACIÓN DEL MODELO FACTORIAL

1.- Si se utilizó el método de máxima verosimilitud o


mínimos cuadrados generalizados para la extracción de
los factores, se pueden aplicar una variedad de pruebas
estadísticas (SAS) que permitan evaluar la adecuación
del modelo.

2.- En base a los residuos del modelo (matriz de


correlación reproducida), podemos afirmar que el
modelo es válido, si la mayoría de los residuos son
pequeños ( menor o igual a 0.05).

58
Ejemplo:

Aplicar análisis factorial a los indicadores de progreso


social 2016. Interprete sus resultados.

59
BIBLIOGRAFÍA
1. URIEL, EZEQUIEL, ALDAS JOAQUIN. 2005
Análisis Multivariante Aplicado. Editorial
Thompson Editores. España.
2. DALLAS E. JOHNSON. 2000. Métodos
Multivariados Aplicados al Análisis de Datos.
International Thomson Editores. Madrid.
3. DANIEL PEÑA, 2002. Análisis de Datos
Multivariados. McGRAW-HILL/ Interamericana de
España.
4. JOHNSON, R.; WICHERN, D. 2007. Applied
Multivariate Statistical Analysis. Editorial Prentice
– Hall Inc.Englewood Cliffs. New Jersey.
5. MARDIA, KENT AND BIBBY. 1982. Multivariate
Analysis. Academic Press. London.
6.ALVIN C. RENCHER. 2002. Methods of
Multivariate Analysis. John Wiley & Sons, Inc.
United States of America
7. CHARLES M. CUADRAS, 2014. Nuevos Métodos
de Análisis Multivariante . CMC EDITIONS. España

También podría gustarte