Investigacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

TECNOLÓGICO NACIONAL DE MÉXICO

INSTITUTO TECNOLÓGICO SUPERIOR DE


MISANTLA

TRABAJO DE LA MATERIA:

Estadística Inferencial

“TITULO DEL TEMA A INVESTIGAR:


 Hipótesis de regresión lineal múltiple
 Intervalos de confianza
 Predicción en regresión múltiple
NOMBRE DEL ALUMNO:

JOSMAR ÁLVAREZ HERNÁNDEZ

NOMBRE DEL DOCENTE:

MISANTLA, VERACRUZ, 10 ABRIL 2022


Prueba de hipótesis en regresión lineal múltiple
La regresión lineal múltiple permite generar un modelo lineal en el que el valor de
la variable dependiente o respuesta (YY) se determina a partir de un conjunto de
variables independientes llamadas predictores (X1X1, X2X2, X3X3…). Es una
extensión de la regresión lineal simple, por lo que es fundamental comprender
esta última. Los modelos de regresión múltiple pueden emplearse para predecir
el valor de la variable dependiente o para evaluar la influencia que tienen los
predictores sobre ella (esto último se debe que analizar con cautela para no
malinterpretar causa-efecto).
Los modelos lineales múltiples siguen la siguiente ecuación:

Yi=(β0+β1X1i+β2X2i+⋯+βnXni)+eiYi=(β0+β1X1i+β2X2i+⋯+βnXni)+ei

 β0β0: es la ordenada en el origen, el valor de la variable


dependiente YY cuando todos los predictores son cero.
 βiβi: es el efecto promedio que tiene el incremento en una unidad de la
variable predictora XiXi sobre la variable dependiente YY, manteniéndose
constantes el resto de variables. Se conocen como coeficientes parciales
de regresión.
 eiei: es el residuo o error, la diferencia entre el valor observado y el
estimado por el modelo.

Es importante tener en cuenta que la magnitud de cada coeficiente parcial de


regresión depende de las unidades en las que se mida la variable predictora a la
que corresponde, por lo que su magnitud no está asociada con la importancia de
cada predictor. Para poder determinar qué impacto tienen en el modelo cada una
de las variables, se emplean los coeficientes parciales estandarizados, que se
obtienen al estandarizar (sustraer la media y dividir entre la desviación estándar)
las variables predictoras previo ajuste del modelo.

 Para cada variable: Considere el número de casos válidos, la media y la


desviación estándar.  
 Para cada modelo: Tenga en cuenta los coeficientes de regresión, la
matriz de correlación, las correlaciones parciales y semiparciales, múltiple
R, R2, R2 ajustado, cambio en R2, error estándar de la estimación, tabla de
análisis de varianza, valores previstos y residuales. Además, considere
intervalos de confianza de 95 por ciento para cada coeficiente de regresión,
matriz de varianza-covarianza, factor de inflación de la varianza, tolerancia,
prueba de Durbin-Watson, medidas de distancia (Mahalanobis, Cook y
valores de apalancamiento), DfBeta, DfFit, intervalos de predicción e
información de diagnóstico sobre cada caso.  
 Gráficos: Considere diagramas de dispersión, gráficos parciales y de
probabilidad normal, e histogramas.
 Datos: Las variables dependientes e independientes deben ser
cuantitativas. Las variables categóricas, como la religión, el campo principal
del estudio o la región de residencia, deben volver a codificarse para ser
variables binarias (ficticias) u otros tipos de variables de contraste.  
 Otras hipótesis: Para cada valor de la variable independiente, la
distribución de la variable dependiente debe ser normal. La varianza de la
distribución de la variable dependiente debe ser constante para todos los
valores de la variable independiente. La relación entre la variable
dependiente y cada variable independiente debe ser lineal; además, todas
las observaciones deben ser independientes.

Así pueden comprobarse estas hipótesis:

1. Las variables deben medirse a un nivel continuo. Algunas variables


continuas son el tiempo, las ventas, el peso y las puntuaciones de las
pruebas.  
2. Utilice un diagrama de dispersión para determinar rápidamente si hay una
relación lineal entre estas dos variables.
3. Las observaciones deben ser independientes entre sí (es decir, no debe
haber ninguna dependencia).
4. Los datos no deberían tener valores atípicos significativos.  
5. Comprobar la homocedasticidad, un concepto estadístico en el que las
varianzas de la línea de regresión lineal de mejor ajuste siguen siendo
similares a lo largo de toda esa línea.
6. Los residuales (errores) de la línea de regresión de mejor ajuste siguen el
patrón de una distribución normal.

Intervalos de confianza

Un intervalo de confianza es una técnica de estimación utilizada en inferencia


estadística que permite acotar un par o varios pares de valores, dentro de los
cuales se encontrará la estimación puntual buscada (con una determinada
probabilidad).

Un intervalo de confianza nos va a permitir calcular dos valores alrededor de una


media muestral (uno superior y otro inferior). Estos valores van a acotar
un rango dentro del cual, con una determinada probabilidad, se va a localizar el
parámetro poblacional.

Intervalo de confianza = media +- margen de error

Conocer el verdadero poblacional, por lo general, suele ser algo muy complicado.
Pensemos en una población de 4 millones de personas. ¿Podríamos saber el
gasto medio en consumo por hogar de esa población? En principio sí.
Simplemente tendríamos que hacer una encuesta entre todos los hogares y
calcular la media. Sin embargo, seguir ese proceso sería tremendamente
laborioso y complicaría bastante el estudio.

Factores de los que depende un intervalo de confianza


El cálculo de un intervalo de confianza depende principalmente de los siguientes
factores:
 Tamaño de la muestra seleccionada: Dependiendo de la cantidad de datos
que se hayan utilizado para calcular el valor muestral, este se acercará más
o menos al verdadero parámetro poblacional.
 Nivel de confianza: Nos va a informar en qué porcentaje de casos nuestra
estimación acierta. Los niveles habituales son el 95% y el 99%.
 Margen de error de nuestra estimación: Este se denomina como alfa y nos
informa de la probabilidad que existe de que el valor poblacional esté fuera
de nuestro intervalo.
 Lo estimado en la muestra (media, varianza, diferencia de medias…): De
esto va a depender el estadístico pivote para el cálculo del intervalo.

Predicción en regresión múltiple

El análisis de la regresión lineal se utiliza para predecir el valor de una variable


según el valor de otra. La variable que desea predecir se denomina variable
dependiente. La variable que está utilizando para predecir el valor de la otra
variable se denomina variable independiente.
Esta forma de análisis estima los coeficientes de la ecuación lineal, involucrando
una o a más variables independientes que mejor predicen el valor de la variable
dependiente. La regresión lineal se ajusta a una línea recta o a una superficie que
minimiza las discrepancias entre los valores de salida previstos y reales. Hay
calculadoras de regresión lineal simple que utilizan el método de “mínimos
cuadrados” para determinar la línea que mejor se ajusta para un conjunto de datos
pareados. A continuación, se calcula el valor de X (variable dependiente) con
respecto a Y (variable independiente).

Es posible realizar la regresión lineal en Microsoft Excel o utilizar paquetes de


software estadísticos, como IBM SPSS® Statistics, que simplifican enormemente
el proceso de ecuaciones, modelos y la fórmula de regresión lineal. SPSS
Statistics puede utilizarse para aplicar técnicas, como la regresión lineal simple y
la regresión lineal múltiple.

También podría gustarte