Econometria Tema 1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 14

UNIVERSIDAD AUTONOMA GABRIEL RENE MORENO

FACULTAD INTEGRAL DEL NORTE


CARRERA INGENIERIA COMERCIAL

TRABAJO DE INVESTIGACION Nº1


“MULTICOLINEALIDAD”

Materia : Econometría l
Sigla / Grupo : ECO300-5C
Docente : Llanos Viracochea Abel Edson
Universitario : Sánchez Cáceres Yudith Yovana
Registro : 221126661

Montero – Santa Cruz – Bolivia


Junio 2023
INTRODUCCIÓN

A través de esta investigación, se espera aclarar y profundizar en conceptos fundamentales


relacionados con la multicolinealidad, tales como sus causas, efectos, técnicas para detectarla y
estrategias para corregirla. Además, se discutirá cómo la presencia de multicolinealidad puede
afectar la validación de otros supuestos del modelo clásico de MCO y se presentarán ejemplos
prácticos para ilustrar su impacto en el análisis de regresión.

Este informe tiene como objetivo explorar y explicar a fondo uno de los supuestos principales del
modelo clásico de mínimos cuadrados ordinarios (MCO): la ausencia de multicolinealidad. Este
supuesto establece que las variables predictoras deben ser independientes y no estar altamente
correlacionadas, ya que la presencia de multicolinealidad puede comprometer la precisión y
exactitud del modelo y, por lo tanto, causar interpretaciones erróneas de los resultados.

Esperamos que este trabajo de extensión ayude a los lectores a mejorar su comprensión de la
importancia de la multicolinealidad en el análisis de regresión y a adoptar medidas adecuadas
para manejar este problema común en sus propios análisis estadísticos.

En el análisis estadístico, la multicolinealidad es un problema común que afecta la calidad de los


resultados obtenidos. La multicolinealidad se define como una alta correlación entre dos o más
variables predictoras en un modelo estadístico. Esto puede provocar que la estimación de los
coeficientes de regresión sea inestable y poco fiable, lo que puede conducir a conclusiones
erróneas sobre la relación entre las variables.

En el contexto del análisis de regresión, los supuestos del modelo clásico de mínimos cuadrados
ordinarios (MCO) establecen que las variables predictoras no deben ser multicolineales, ya que
esto puede causar estimaciones inexactas de los coeficientes y reducir la precisión del modelo.
Por lo tanto, es importante entender las causas y efectos de la multicolinealidad y tomar medidas
para detectarla y corregirla antes de la estimación de los coeficientes del modelo.
OBJETIVO

El objetivo de este informe es proporcionar a los lectores información precisa y útil sobre la
multicolinealidad, con el fin de que puedan aplicar este conocimiento y tomar medidas prácticas
para garantizar que sus análisis de regresión sean precisos y confiables. Para ello, se presentarán
recomendaciones y soluciones prácticas para abordar la multicolinealidad y mejorar la calidad de
los resultados obtenidos a partir de modelos de regresión ajustados con el método MCO.
INDICE

1. LA MULTICOLINEALIDAD...............................................................................................1
2. LAS CAUSAS MÁS COMUNES DE LA MULTICOLINEALIDAD SON:.....................2
3. EFECTOS EN EL MODELO DE REGRESIÓN MCO, ENTRE LOS CUALES SE
ENCUENTRAN:.............................................................................................................................2
4. EXISTEN DIVERSAS TÉCNICAS PARA DETECTAR LA PRESENCIA DE
MULTICOLINEALIDAD.............................................................................................................3
5. ENTRE LAS ESTRATEGIAS PARA CORREGIRLA SE DESTACAN LAS
SIGUIENTES:................................................................................................................................4
6. CÓMO LA PRESENCIA DE MULTICOLINEALIDAD PUEDE AFECTAR LA
VALIDACIÓN DE OTROS SUPUESTOS DEL MODELO CLÁSICO DE MCO Y QUÉ
OPCIONES EXISTEN PARA ABORDAR ESTE PROBLEMA..............................................5
7. ABORDANDO EL PROBLEMA DE LA MULTICOLINEALIDAD:..............................6
8. EJEMPLOS.............................................................................................................................7
CONCLUSIÓN...............................................................................................................................9
BIBLIOGRAFIA..........................................................................................................................10
DESARROLLO DEL TEMA

1. LA MULTICOLINEALIDAD
La multicolinealidad se refiere a la presencia de alta correlación entre dos o más variables
predictoras en un modelo de regresión. Este fenómeno puede limitar la capacidad del modelo
para separar los efectos de cada variable independiente en la variable dependiente, lo que a su vez
dificulta la interpretación precisa de los coeficientes de regresión y puede reducir la fiabilidad del
modelo.

Existen diferentes tipos de multicolinealidad: la multicolinealidad perfecta ocurre cuando dos


variables predictoras son idénticas o están perfectamente correlacionadas; la multicolinealidad
aproximada, por otro lado, se refiere a la correlación alta, pero no perfecta, entre las variables
predictoras.

Las causas de la multicolinealidad pueden variar y pueden ser tanto externas (por ejemplo,
problemas de medición en las variables) como internas (por ejemplo, la inclusión de variables
redundantes o innecesarias en el modelo).

Además, hay varias técnicas que se pueden utilizar para detectar la multicolinealidad, como el
cálculo de la matriz de correlación entre las variables predictoras y el análisis de los valores
propios y los vectores que se obtienen al realizar un análisis de componentes principales.

Para corregir la multicolinealidad, hay varias estrategias que se pueden usar, como la eliminación
de variables redundantes o la combinación de variables para crear nuevas variables que no estén
altamente correlacionadas. Otros métodos incluyen el uso de técnicas de regularización (como la
regresión de Lasso o la regresión de Ridge) o el aumento del tamaño de la muestra para reducir el
efecto de la multicolinealidad.

Es importante tener en cuenta que la presencia de multicolinealidad también puede afectar la


validación de otros supuestos del modelo clásico de MCO y puede producir resultados poco
confiables si no se detecta y corrige adecuadamente.
La multicolinealidad es un problema que se presenta en el análisis de regresión cuando existe una
alta correlación entre dos o más variables independientes o predictoras del modelo.
1
2. LAS CAUSAS MÁS COMUNES DE LA MULTICOLINEALIDAD SON:

1. La existencia de variables muy similares: cuando se incluyen en el modelo dos o más variables
que miden lo mismo o que están altamente relacionadas, es muy probable que se produzca
colinealidad.

2. La inclusión de variables que son combinaciones lineales de otras: esto es, cuando se incluyen
variables que son parecidas o idénticas a otras, en cuyo caso el modelo puede resultar redundante.

3. La pequeña muestra: si la muestra es pequeña, es más probable que se presenten ciertos valores
atípicos o errores aleatorios, que pueden aumentar la correlación entre dos o más variables.

4. La inclusión de variables irrelevantes: si se incluye en el modelo una variable que no tiene


relación alguna con la variable a predecir, ésta no contribuirá al modelo y puede aumentar la
multicolinealidad.

5. La falta de normalidad en las variables: cuando las variables no siguen una distribución
normal, puede haber cierto grado de correlación entre ellas que no se debe a la relación real entre
las variables, sino a una falta de normalidad.

Es importante tener en cuenta que la multicolinealidad no solo se debe a las características de los
datos, sino también a las decisiones que se toman en relación al diseño del experimento y la
selección de variables. Por ello, es importante prestar atención a la selección de las variables que
se incluyen en el modelo y la forma en que se analizan estos datos.

3. EFECTOS EN EL MODELO DE REGRESIÓN MCO, ENTRE LOS CUALES SE


ENCUENTRAN:

1. Coeficientes imprecisos: cuando se presenta una alta multicolinealidad entre dos o más
variables independientes, los coeficientes estimados por el modelo pueden ser imprecisos e
incluso erróneos. Esto puede dificultar la interpretación de los resultados y llevar a conclusiones
incorrectas.
2
2. Inestabilidad de los coeficientes: la multicolinealidad puede hacer que los coeficientes
estimados sean muy sensibles a cambios pequeños en los datos de entrada. Por lo tanto, los
coeficientes pueden cambiar drásticamente de un conjunto de datos a otro, lo que puede dificultar
la generalización de los resultados a otras poblaciones o casos.

3. Menor poder predictivo: la presencia de multicolinealidad puede disminuir la capacidad del


modelo para hacer predicciones precisas. En algunos casos, esto se debe a que las variables
altamente correlacionadas no ofrecen una información adicional significativa sobre la variable
dependiente.

4. Variables irrelevantes: la multicolinealidad puede hacer que las variables predictoras pierdan
su relevancia en el modelo de regresión. Si varias variables están altamente correlacionadas,
puede ser difícil determinar cuál de ellas es realmente importante en el modelo.

5. Problemas de interpretación: la multicolinealidad puede dificultar la interpretación de los


resultados del modelo de regresión. Los coeficientes de regresión pueden no tener una
interpretación clara o lógica si las variables predictoras están altamente correlacionadas.

En general, la aplicación del modelo de regresión MCO en presencia de multicolinealidad puede


llevar a problemas importantes en la estimación y predicción de los valores de la variable
dependiente. Por tanto, es importante detectar y manejar adecuadamente la multicolinealidad al
realizar un análisis de regresión.

4. EXISTEN DIVERSAS TÉCNICAS PARA DETECTAR LA PRESENCIA DE


MULTICOLINEALIDAD

En un modelo de regresión que utiliza el método de mínimos cuadrados ordinarios (MCO), entre
las cuales se encuentran las siguientes:

1. Matrices de correlación: es posible calcular las matrices de correlación entre las variables
predictoras para buscar altas correlaciones. Una correlación cercana a -1 o 1 indica una fuerte
correlación entre las variables, lo que sugiere la presencia de multicolinealidad.
3
2. Gráficos de dispersión: los gráficos de dispersión pueden ayudar a identificar patrones de
correlación entre las variables predictoras. Si dos variables tienen una relación lineal, entonces es
probable que estén altamente correlacionadas.

3. Análisis de componentes principales (ACP): esta técnica transforma las variables predictoras
en una serie de nuevos predictores que son ortogonales entre sí y, por lo tanto, no están
correlacionados. Si el primer componente principal es muy dominante en relación al resto, es
probable que exista multicolinealidad.

4. Tests estadísticos de cuantificación: existen algunos tests estadísticos para determinar si las
variables predictoras tienen una relación altamente correlacionada. Uno de los tests más comunes
es el índice de tolerancia y el factor de inflación de la varianza (VIF).

5. Análisis de varianza (ANOVA): el análisis de varianza también puede ayudar a identificar la


presencia de multicolinealidad. Por ejemplo, si el modelo tiene una varianza elevada pero no
produce un modelo significativo, la multicolinealidad puede ser la causa.

En general, la detección de la multicolinealidad es un paso importante al ajustar un modelo de


regresión MCO. Una vez que se identifica la presencia de multicolinealidad, es necesario tomar
medidas para corregirla antes de continuar con el análisis.

La presencia de multicolinealidad puede afectar significativamente la precisión y la confiabilidad


de los resultados obtenidos a partir de un modelo de regresión que utiliza el método de mínimos
cuadrados ordinarios (MCO). Por lo tanto, es importante corregir la multicolinealidad antes de
continuar con el análisis.

5. ENTRE LAS ESTRATEGIAS PARA CORREGIRLA SE DESTACAN LAS


SIGUIENTES:

1. Eliminación de variables: la eliminación de variables correlacionadas puede ayudar a reducir o


eliminar la multicolinealidad. Sin embargo, se debe ser cuidadoso al eliminar variables, ya que
puede afectar la precisión y la validez del modelo.
4
2. Transformaciones de variables: si las variables afectadas por multicolinealidad se pueden
transformar a través de una función matemática, como la transformación logarítmica, se puede
reducir la multicolinealidad.

3. Combinación de variables: la creación de nuevas variables a partir de combinaciones lineales


de variables existentes, como la suma o la diferencia de dos variables, puede reducir la
multicolinealidad. Esto también se conoce como agregación de variables.

4. Regularización: la regularización es una técnica de optimización que se utiliza para reducir la


multicolinealidad y mejorar la precisión del modelo. Las técnicas más comunes son la regresión
de Ridge, la regresión de Lasso y la regresión elástica.

5. Análisis de componentes principales (PCA): el análisis de componentes principales es una


técnica que se utiliza para reducir el número de variables en un modelo y, por lo tanto, reducir la
multicolinealidad. Esto se logra mediante la creación de nuevas variables que son combinaciones
lineales de las variables originales.

En general, es importante evaluar y corregir la multicolinealidad antes de continuar con el


análisis de regresión, ya que esto puede afectar la precisión y la validez de los resultados. La
elección de la estrategia de corrección dependerá de los datos, las variables implicadas y el
objetivo del análisis.

6. CÓMO LA PRESENCIA DE MULTICOLINEALIDAD PUEDE AFECTAR LA


VALIDACIÓN DE OTROS SUPUESTOS DEL MODELO CLÁSICO DE MCO Y
QUÉ OPCIONES EXISTEN PARA ABORDAR ESTE PROBLEMA.

El modelo clásico de mínimos cuadrados ordinarios (MCO) es utilizado ampliamente en la


estadística y la econometría para realizar análisis de regresión. Este modelo se basa en varios
supuestos que deben cumplirse para que los resultados sean precisos y confiables. Uno de estos
supuestos es la ausencia de multicolinealidad entre las variables independientes. En este trabajo
de investigación se explorará cómo la presencia de multicolinealidad puede afectar la validación
5
de otros supuestos del modelo clásico de MCO y qué opciones existen para abordar este
problema.

Efectos de la multicolinealidad en otros supuestos del modelo clásico de MCO:

La presencia de multicolinealidad en el modelo de regresión puede afectar la validación de otros


supuestos importantes del modelo clásico de MCO:

1. Normalidad de los errores: El supuesto de normalidad de los errores se refiere a que los errores
del modelo siguen una distribución normal. La multicolinealidad puede hacer que los errores no
sean normalmente distribuidos, lo cual se debe a que la multicolinealidad agrega redundancia a
los datos, lo que puede sesgar la distribución.
2. Homocedasticidad de los errores: El supuesto de homocedasticidad de los errores se refiere a
que la varianza de los errores debe ser constante en todo el rango de los valores de las variables
independientes. La multicolinealidad puede violar este supuesto, ya que la varianza de los errores
puede aumentar en presencia de multicolinealidad.
3. Independencia de los errores: El supuesto de independencia de los errores se refiere a que los
errores no deben estar correlacionados entre sí. La presencia de multicolinealidad puede violar
este supuesto. Si las variables independientes están altamente correlacionadas, entonces los
errores asociados con ellas también estarán correlacionados.

7. ABORDANDO EL PROBLEMA DE LA MULTICOLINEALIDAD:

Para abordar el problema de la multicolinealidad, hay varias opciones posibles:

1. Eliminar variables independientes: Si las variables independientes están altamente


correlacionadas entre sí, entonces es aconsejable para eliminar una o más de ellas del modelo.

2. Combinar variables independientes: La combinación de dos o más variables independientes


puede reducir la multicolinealidad, creando así una variable que sea el promedio ponderado de las
variables independientes.

6
3. Regularización: La regularización es una técnica utilizada para reducir la multicolinealidad al
agregar un término de penalización a la función de costo. Los métodos de regularización incluyen
la regresión de Ridge, la regresión Lasso y la regresión elástica.

8. EJEMPLOS

La multicolinealidad es un problema que se presenta en el análisis de regresión cuando existen


relaciones lineales entre dos o más variables independientes en un modelo de regresión lineal
múltiple. Esto significa que una variable independiente se puede predecir con alta precisión a
partir de otra variable independiente en el modelo.

La multicolinealidad puede tener un impacto significativo en el análisis de regresión, como, por


ejemplo, afectar a la precisión de las estimaciones de los coeficientes de regresión y reducir la
capacidad del modelo para predecir con precisión los valores de la variable dependiente. Además,
la multicolinealidad puede reducir la capacidad del modelo para identificar cuáles de las variables
independientes son importantes para la predicción de la variable dependiente.

A continuación, presentamos dos ejemplos prácticos que ilustran los efectos de la


multicolinealidad en el análisis de regresión:

Ejemplo 1: Supongamos que se desea construir un modelo de regresión para predecir el precio de
una vivienda en función de variables como el número de habitaciones, el tamaño del lote y la
ubicación de la vivienda. Si se incluye en el modelo tanto el tamaño del lote como el número de
habitaciones, es probable que se presente multicolinealidad, ya que es probable que ambas
variables estén correlacionadas entre sí. Esto puede hacer que los coeficientes estimados sean
menos precisos y que el modelo se desempeñe mal en términos de su capacidad para predecir el
precio de la vivienda.

Ejemplo 2: Supongamos que se desea construir un modelo de regresión para predecir la


resistencia de un material en función de variables como el peso del material, la longitud y el
ancho del material. Si el peso del material está muy correlacionado con la longitud y el ancho del
material, esto puede llevar a la aparición de multicolinealidad. En este caso, el modelo puede

7
tener dificultades para predecir con precisión los valores de la resistencia del material y puede ser
necesario eliminar una de las variables independientes para mejorar la precisión del modelo.

Ejemplo 3: Un investigador desea construir un modelo de regresión múltiple para predecir la


satisfacción del cliente con la calidad de un producto. Las variables independientes incluyen el
precio del producto, el tamaño del envase y la marca del producto. El investigador sospecha que
puede haber multicolinealidad entre el precio y la marca, ya que los productos de marca suelen
costar más. El análisis de regresión muestra que la multicolinealidad está presente, lo que
significa que no se pueden confiar en las estimaciones de los coeficientes de regresión para
determinar la importancia relativa de cada variable independiente en la predicción de la
satisfacción del cliente.

Ejemplo 4: Un analista financiero desea construir un modelo de regresión para predecir el precio
de las acciones de una empresa en función de variables como las ventas y las ganancias de la
empresa, la tasa de interés y la inflación. Después de realizar el análisis de regresión, el analista
financiero descubre que existe multicolinealidad entre las ventas y las ganancias de la empresa, lo
que significa que ambas variables están altamente correlacionadas. Esto puede complicar la
interpretación del modelo, ya que no es posible determinar la verdadera relación entre cada
variable independiente y el precio de las acciones de la empresa.

La multicolinealidad puede reducir la precisión y la confiabilidad de los resultados del análisis de


regresión, lo que hace que sea importante detectar y abordar este problema. La eliminación de
una o más variables independientes altamente correlacionadas puede ayudar a resolver el
problema de multicolinealidad y mejorar la precisión del modelo.

8
CONCLUSIÓN

Durante este trabajo de investigación, se ha demostrado la importancia de la detección temprana


de la multicolinealidad y el abordaje adecuado del problema utilizando técnicas para eliminar
variables altamente correlacionadas o transformar variables. Además, se han presentado dos
ejemplos prácticos que demuestran los efectos de la multicolinealidad en los resultados del
análisis de regresión.

Es importante destacar que, aunque la multicolinealidad puede ser un desafío en el análisis de


regresión, existen técnicas y estrategias para abordar y resolver el problema. Al hacerlo, se
pueden obtener resultados más precisos y confiables del modelo clásico de mínimos cuadrados
ordinarios (MCO).

Los supuestos del modelo clásico de mínimos cuadrados ordinarios (MCO) son fundamentales
para obtener resultados precisos y confiables en el análisis de regresión. El supuesto de
multicolinealidad es uno de los supuestos más importantes, ya que puede afectar la validez y
precisión de los resultados del modelo. Si se detecta multicolinealidad en los datos, es importante
abordar este problema para asegurar resultados precisos y confiables. Las opciones para abordar
la multicolinealidad incluyen la eliminación de variables independientes, la combinación de
variables independientes y el uso de técnicas de regularización.
En este trabajo de investigación, presentamos cuatro ejemplos prácticos que ilustran cómo la
multicolinealidad puede afectar los resultados del análisis de regresión.

Para abordar la multicolinealidad, es importante detectarla a través de técnicas como el análisis


de correlación y la tolerancia. Una vez que se detecta la multicolinealidad, es posible abordarla
mediante la eliminación de una o más variables independientes altamente correlacionadas o
mediante la transformación de las variables para reducir la correlación.

9
Durante este trabajo de investigación, se ha demostrado la importancia de la detección temprana
de la multicolinealidad y el abordaje adecuado del problema utilizando técnicas para eliminar
variables altamente correlacionadas o transformar variables.

BIBLIOGRAFIA

 Gujarati, D. N. (2009). Basic Econometrics. McGraw-Hill Education.

 Montgomery, D. C., Peck, E. A., & Vining, G. G. (2012). Introduction to Linear Regression Analysis.
John Wiley & Sons.

 Montgomery, D. C., Peck, E. A., & Vining, G. G. (2015). Introduction to Linear Regression Analysis.
John Wiley & Sons.

 Stock, J. H., & Watson, M. W. (2019). Introduction to Econometrics. Pearson.

 Hair Jr, J. F., Black, W. C., Babin, B. J., Anderson, R. E., & Tatham, R. L. (2020). Multivariate Data
Analysis. Pearson.

10

También podría gustarte