Econometria Tema 1
Econometria Tema 1
Econometria Tema 1
Materia : Econometría l
Sigla / Grupo : ECO300-5C
Docente : Llanos Viracochea Abel Edson
Universitario : Sánchez Cáceres Yudith Yovana
Registro : 221126661
Este informe tiene como objetivo explorar y explicar a fondo uno de los supuestos principales del
modelo clásico de mínimos cuadrados ordinarios (MCO): la ausencia de multicolinealidad. Este
supuesto establece que las variables predictoras deben ser independientes y no estar altamente
correlacionadas, ya que la presencia de multicolinealidad puede comprometer la precisión y
exactitud del modelo y, por lo tanto, causar interpretaciones erróneas de los resultados.
Esperamos que este trabajo de extensión ayude a los lectores a mejorar su comprensión de la
importancia de la multicolinealidad en el análisis de regresión y a adoptar medidas adecuadas
para manejar este problema común en sus propios análisis estadísticos.
En el contexto del análisis de regresión, los supuestos del modelo clásico de mínimos cuadrados
ordinarios (MCO) establecen que las variables predictoras no deben ser multicolineales, ya que
esto puede causar estimaciones inexactas de los coeficientes y reducir la precisión del modelo.
Por lo tanto, es importante entender las causas y efectos de la multicolinealidad y tomar medidas
para detectarla y corregirla antes de la estimación de los coeficientes del modelo.
OBJETIVO
El objetivo de este informe es proporcionar a los lectores información precisa y útil sobre la
multicolinealidad, con el fin de que puedan aplicar este conocimiento y tomar medidas prácticas
para garantizar que sus análisis de regresión sean precisos y confiables. Para ello, se presentarán
recomendaciones y soluciones prácticas para abordar la multicolinealidad y mejorar la calidad de
los resultados obtenidos a partir de modelos de regresión ajustados con el método MCO.
INDICE
1. LA MULTICOLINEALIDAD...............................................................................................1
2. LAS CAUSAS MÁS COMUNES DE LA MULTICOLINEALIDAD SON:.....................2
3. EFECTOS EN EL MODELO DE REGRESIÓN MCO, ENTRE LOS CUALES SE
ENCUENTRAN:.............................................................................................................................2
4. EXISTEN DIVERSAS TÉCNICAS PARA DETECTAR LA PRESENCIA DE
MULTICOLINEALIDAD.............................................................................................................3
5. ENTRE LAS ESTRATEGIAS PARA CORREGIRLA SE DESTACAN LAS
SIGUIENTES:................................................................................................................................4
6. CÓMO LA PRESENCIA DE MULTICOLINEALIDAD PUEDE AFECTAR LA
VALIDACIÓN DE OTROS SUPUESTOS DEL MODELO CLÁSICO DE MCO Y QUÉ
OPCIONES EXISTEN PARA ABORDAR ESTE PROBLEMA..............................................5
7. ABORDANDO EL PROBLEMA DE LA MULTICOLINEALIDAD:..............................6
8. EJEMPLOS.............................................................................................................................7
CONCLUSIÓN...............................................................................................................................9
BIBLIOGRAFIA..........................................................................................................................10
DESARROLLO DEL TEMA
1. LA MULTICOLINEALIDAD
La multicolinealidad se refiere a la presencia de alta correlación entre dos o más variables
predictoras en un modelo de regresión. Este fenómeno puede limitar la capacidad del modelo
para separar los efectos de cada variable independiente en la variable dependiente, lo que a su vez
dificulta la interpretación precisa de los coeficientes de regresión y puede reducir la fiabilidad del
modelo.
Las causas de la multicolinealidad pueden variar y pueden ser tanto externas (por ejemplo,
problemas de medición en las variables) como internas (por ejemplo, la inclusión de variables
redundantes o innecesarias en el modelo).
Además, hay varias técnicas que se pueden utilizar para detectar la multicolinealidad, como el
cálculo de la matriz de correlación entre las variables predictoras y el análisis de los valores
propios y los vectores que se obtienen al realizar un análisis de componentes principales.
Para corregir la multicolinealidad, hay varias estrategias que se pueden usar, como la eliminación
de variables redundantes o la combinación de variables para crear nuevas variables que no estén
altamente correlacionadas. Otros métodos incluyen el uso de técnicas de regularización (como la
regresión de Lasso o la regresión de Ridge) o el aumento del tamaño de la muestra para reducir el
efecto de la multicolinealidad.
1. La existencia de variables muy similares: cuando se incluyen en el modelo dos o más variables
que miden lo mismo o que están altamente relacionadas, es muy probable que se produzca
colinealidad.
2. La inclusión de variables que son combinaciones lineales de otras: esto es, cuando se incluyen
variables que son parecidas o idénticas a otras, en cuyo caso el modelo puede resultar redundante.
3. La pequeña muestra: si la muestra es pequeña, es más probable que se presenten ciertos valores
atípicos o errores aleatorios, que pueden aumentar la correlación entre dos o más variables.
5. La falta de normalidad en las variables: cuando las variables no siguen una distribución
normal, puede haber cierto grado de correlación entre ellas que no se debe a la relación real entre
las variables, sino a una falta de normalidad.
Es importante tener en cuenta que la multicolinealidad no solo se debe a las características de los
datos, sino también a las decisiones que se toman en relación al diseño del experimento y la
selección de variables. Por ello, es importante prestar atención a la selección de las variables que
se incluyen en el modelo y la forma en que se analizan estos datos.
1. Coeficientes imprecisos: cuando se presenta una alta multicolinealidad entre dos o más
variables independientes, los coeficientes estimados por el modelo pueden ser imprecisos e
incluso erróneos. Esto puede dificultar la interpretación de los resultados y llevar a conclusiones
incorrectas.
2
2. Inestabilidad de los coeficientes: la multicolinealidad puede hacer que los coeficientes
estimados sean muy sensibles a cambios pequeños en los datos de entrada. Por lo tanto, los
coeficientes pueden cambiar drásticamente de un conjunto de datos a otro, lo que puede dificultar
la generalización de los resultados a otras poblaciones o casos.
4. Variables irrelevantes: la multicolinealidad puede hacer que las variables predictoras pierdan
su relevancia en el modelo de regresión. Si varias variables están altamente correlacionadas,
puede ser difícil determinar cuál de ellas es realmente importante en el modelo.
En un modelo de regresión que utiliza el método de mínimos cuadrados ordinarios (MCO), entre
las cuales se encuentran las siguientes:
1. Matrices de correlación: es posible calcular las matrices de correlación entre las variables
predictoras para buscar altas correlaciones. Una correlación cercana a -1 o 1 indica una fuerte
correlación entre las variables, lo que sugiere la presencia de multicolinealidad.
3
2. Gráficos de dispersión: los gráficos de dispersión pueden ayudar a identificar patrones de
correlación entre las variables predictoras. Si dos variables tienen una relación lineal, entonces es
probable que estén altamente correlacionadas.
3. Análisis de componentes principales (ACP): esta técnica transforma las variables predictoras
en una serie de nuevos predictores que son ortogonales entre sí y, por lo tanto, no están
correlacionados. Si el primer componente principal es muy dominante en relación al resto, es
probable que exista multicolinealidad.
4. Tests estadísticos de cuantificación: existen algunos tests estadísticos para determinar si las
variables predictoras tienen una relación altamente correlacionada. Uno de los tests más comunes
es el índice de tolerancia y el factor de inflación de la varianza (VIF).
1. Normalidad de los errores: El supuesto de normalidad de los errores se refiere a que los errores
del modelo siguen una distribución normal. La multicolinealidad puede hacer que los errores no
sean normalmente distribuidos, lo cual se debe a que la multicolinealidad agrega redundancia a
los datos, lo que puede sesgar la distribución.
2. Homocedasticidad de los errores: El supuesto de homocedasticidad de los errores se refiere a
que la varianza de los errores debe ser constante en todo el rango de los valores de las variables
independientes. La multicolinealidad puede violar este supuesto, ya que la varianza de los errores
puede aumentar en presencia de multicolinealidad.
3. Independencia de los errores: El supuesto de independencia de los errores se refiere a que los
errores no deben estar correlacionados entre sí. La presencia de multicolinealidad puede violar
este supuesto. Si las variables independientes están altamente correlacionadas, entonces los
errores asociados con ellas también estarán correlacionados.
6
3. Regularización: La regularización es una técnica utilizada para reducir la multicolinealidad al
agregar un término de penalización a la función de costo. Los métodos de regularización incluyen
la regresión de Ridge, la regresión Lasso y la regresión elástica.
8. EJEMPLOS
Ejemplo 1: Supongamos que se desea construir un modelo de regresión para predecir el precio de
una vivienda en función de variables como el número de habitaciones, el tamaño del lote y la
ubicación de la vivienda. Si se incluye en el modelo tanto el tamaño del lote como el número de
habitaciones, es probable que se presente multicolinealidad, ya que es probable que ambas
variables estén correlacionadas entre sí. Esto puede hacer que los coeficientes estimados sean
menos precisos y que el modelo se desempeñe mal en términos de su capacidad para predecir el
precio de la vivienda.
7
tener dificultades para predecir con precisión los valores de la resistencia del material y puede ser
necesario eliminar una de las variables independientes para mejorar la precisión del modelo.
Ejemplo 4: Un analista financiero desea construir un modelo de regresión para predecir el precio
de las acciones de una empresa en función de variables como las ventas y las ganancias de la
empresa, la tasa de interés y la inflación. Después de realizar el análisis de regresión, el analista
financiero descubre que existe multicolinealidad entre las ventas y las ganancias de la empresa, lo
que significa que ambas variables están altamente correlacionadas. Esto puede complicar la
interpretación del modelo, ya que no es posible determinar la verdadera relación entre cada
variable independiente y el precio de las acciones de la empresa.
8
CONCLUSIÓN
Los supuestos del modelo clásico de mínimos cuadrados ordinarios (MCO) son fundamentales
para obtener resultados precisos y confiables en el análisis de regresión. El supuesto de
multicolinealidad es uno de los supuestos más importantes, ya que puede afectar la validez y
precisión de los resultados del modelo. Si se detecta multicolinealidad en los datos, es importante
abordar este problema para asegurar resultados precisos y confiables. Las opciones para abordar
la multicolinealidad incluyen la eliminación de variables independientes, la combinación de
variables independientes y el uso de técnicas de regularización.
En este trabajo de investigación, presentamos cuatro ejemplos prácticos que ilustran cómo la
multicolinealidad puede afectar los resultados del análisis de regresión.
9
Durante este trabajo de investigación, se ha demostrado la importancia de la detección temprana
de la multicolinealidad y el abordaje adecuado del problema utilizando técnicas para eliminar
variables altamente correlacionadas o transformar variables.
BIBLIOGRAFIA
Montgomery, D. C., Peck, E. A., & Vining, G. G. (2012). Introduction to Linear Regression Analysis.
John Wiley & Sons.
Montgomery, D. C., Peck, E. A., & Vining, G. G. (2015). Introduction to Linear Regression Analysis.
John Wiley & Sons.
Hair Jr, J. F., Black, W. C., Babin, B. J., Anderson, R. E., & Tatham, R. L. (2020). Multivariate Data
Analysis. Pearson.
10