lunes, 24 de noviembre de 2014

RECTA DE REGRESION POR EL METODO DE LOS MINIMOS CUADRADOS

RECTA DE REGRESION POR EL METODO DE LOS MINIMOS CUADRADOS

REGRESION LINEAL

La regresión lineal o ajuste lineal es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:
Y_t = \beta_0  + \beta_1 X_1 + \beta_2 X_2 +  \cdots +\beta_p X_p + \varepsilon
 Y= m(x) + b










METODO DE LOS MINIMOS CUADRADOS

Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: variable independiente, variable dependiente, y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

Y= m(x) + b



EN EL SIGUIENTE VIDEO ENCONTRARAS LA FORMA EN COMO SE RESUELVE UN EJERCICIO APLICANDO EL METODO DE LOS MINIMOS CUADRADOS






COEFICIENTE DE CORRELACION "r" DE PEARSON

COEFICIENTE DE CORRELACION "r" DE PEARSON

CORRELACION LINEAL

La correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.

COEFICIENTE "r" DE PEARSON

El coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
Podemos calcular este coeficiente sobre un estadístico muestral, denotado como r_{xy} a:

r_{xy}=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s_x s_y}=\frac{n\sum x_iy_i-\sum x_i\sum y_i}
{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.
  • INTERPRETACION
    • Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante.
    • Si 0 < r < 1, existe una correlación positiva.
    • Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables.
    • Si -1 < r < 0, existe una correlación negativa.
    • Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante.

    EL SIGUIENTE VIDEO MUESTRA UN PROBLEMA RESUELTO POR SU SERVIDOR EN DONDE APLICAMOS EL COEFICIENTE "r" DE PEARSON