CORRELACION Y REGRESIÒN EN ESTADISTICA
CORRELACION Y REGRESIÒN EN ESTADISTICA
CORRELACION Y REGRESIÒN EN ESTADISTICA
UNIDAD IV
CORRELACION Y REGRESIÒN
Participantes
Styven Álvarez. CI. 27.617.561
Brenda García. CI. 26.556.739
Ciriluz Vásquez. CI. 26.006.974
Linoska Chirinos CI. 24.160.569
Yesimar Ortiz. CI. 18.949.031
Curso: Estadistica II
Mención RRHH Sección106
Facilitador: Davey Angulo
Barquisimeto, Junio 2024.
CORRELACION
La correlación es una medida estadística que expresa hasta qué punto dos variables
están relacionadas linealmente. En otras palabras, la correlación mide cuánto cambian
conjuntamente dos variables a una tasa constante. Es una herramienta común para describir
relaciones simples sin hacer afirmaciones sobre causa y efecto1. Al comprender cómo las
variables se relacionan entre sí, podemos obtener información valiosa sobre los patrones y
las tendencias subyacentes en nuestros datos. La correlación no implica necesariamente
causalidad, pero proporciona una medida del grado en que dos variables se mueven juntas
en la misma dirección o en direcciones opuestas
Por lo tanto, el concepto de correlación implica que el cambio en la magnitud de
una variable (usualmente denominada variable independiente y por convención ubicada en
el eje de X) afecta al cambio de otra variable (denominada variable dependiente, en el eje
de Y). Sin embargo, es importante usar este término con precaución, ya que no toda
correlación implica causalidad1. En otras palabras, la correlación permite examinar la
tendencia de dos variables a ir juntas, pero no necesariamente establece una relación de
causa y efecto. Por ejemplo, si queremos investigar la relación entre la edad y la presión
arterial, la prueba estadística pertinente sería una prueba de correlación.
z z
∑x y
N
Donde: “x” es igual a la variable número uno, “y” pertenece a la variable número dos, “zx”
es la desviación estándar de la variable uno, “zy” es la desviación estándar de la variable
dos y “N” es es número de datos.
El valor es independiente de cualquier unidad que se utiliza para medir las variables.
Si la muestra es grande, es más probable la exactitud de la estimación.
Alguna de las desventajas del coeficiente de correlación son:
REGRESION
CONCEPTO DE AJUSTES Y REGRESIÓN
Nuestro conocimiento del tema en cuestión nos permite escribir un modelo que
afirma que la variable X es una función de las variables . La variable X recibe el
nombre de variable dependiente y las variables se llaman variables
independientes. La forma exacta de la función no está fijada a priori, sino que depende de
unos pocos parámetros libres.
El modelo de regresión lineal posibilita, una vez establecida una función lineal,
efectuar predicciones sobre el valor de una variable Y sabiendo los valores de un conjunto
de variables X1, X2,… Xn. A la variable Y la llamamos dependiente, aunque también se la
conoce como variable objetivo, endógena, criterio o explicada. Por su parte, las variables X
son las variables independientes, conocidas también como predictoras, explicativas,
exógenas o regresoras.
ECUACIONES NORMALES:
Son un conjunto de ecuaciones lineales que se utilizan para resolver los coeficientes
de un modelo de regresión lineal. Estas ecuaciones se derivan estableciendo el gradiente de
la suma de errores cuadrados en cero, lo que da como resultado un sistema de ecuaciones
que se pueden resolver para los coeficientes. Las ecuaciones normales son particularmente
útiles cuando la cantidad de características en los datos es relativamente pequeña y los
datos no son demasiado grandes.
ECUACIONES DE REGRESIÓN:
yi=β0+β1X1i+β2X2i+⋯+βkXki+εi𝑦𝑖=𝛽0+𝛽1𝑋1𝑖+𝛽2𝑋2𝑖+⋯+𝛽𝑘𝑋𝑘𝑖+𝜀𝑖
yi=b0+b1x1i+b2x2i+ei𝑦𝑖=𝑏0+𝑏1𝑥1𝑖+𝑏2𝑥2𝑖+𝑒𝑖
Al igual que nuestro trabajo anterior con las distribuciones de probabilidad, este
modelo solo funciona si se cumplen ciertos supuestos. Estos son: que Y se distribuya
normalmente, que los errores también se distribuyan normalmente con una media de cero y
una desviación típica constante, y que los términos de error sean independientes del tamaño
de X e independientes entre sí.