TEMA 12: Concordancia y correlación. Correlación paramédica: Pearson. Correlación no paramédica: Spearman.
REGRESIÓN: Es la predicción de una medida basándonoslos en el conocimiento de otra. Tenemos una de referencia y en función de ella, predecimos como se va a comportar los resultados de un estudios.
ESTUDIO CONJUNTO DE DOS VARIABLES :
Veamos un ejemplo:
Realizamos una tabla de datos, con la variables "X" (altura en cm) y otra variable "Y" (peso en kg), que recogen las mediadas antropométricas de un individuo. Una vez que tenemos la tabla completada, establecemos los datos en un diagrama de dispersión (scatterplot), en donde, cada individuo es un punto cuyas coordenadas
El objetivo será intentar conocer a partir del mismo si hay relación entre las variables y de qué tipo, y si es posible predecir el valor de una de ellas en función de la otra. Además, al fin y al cabo, es un tipo de contraste de hipótesis, y por ello, habrá que plantear la hipótesis nula viendo si esta se rechaza o no.
Observamos una relación entre las variables, en el cual, parece que el peso aumenta con la altura, aparentemente aumenta 10 kilos por cada 10 cm de altura, ósea, el peso aumenta una unidad por cada unidad de altura.
RELACION:
En estos diagramas de dispersión podemos encontrar varios tipo de relación:
Incorrelación: Para los valores de X por encima de la media, tenemos valores de Y por encima, y por debajo en proporciones similares.
Fuente de relación : Para valores de X mayores que la media, encontramos valores de Y mayores. Para valores de X menores que la media, encontramos valores Y menores también.
Cierta relación inversa o decreciente: Para los valores de X mayores que la media corresponden valores Y menores.
De igual manera, encontramos una relación entre dos variables cuantitativas:
Variables independientes: No existe una forma definida, por tanto, no existe relación.
Variable dependiente: Aceptamos la hipótesis alternativa, rechazando la nula. Tenemos dos tipos de dependencia:
Dependencia funcional: Puntos exactamente sobre una linea curva o recta. No suele darse en estadística
Dependencia estocástica: No están todos los puntos exactamente sobre el modelo, si no que existe una tendencia
REGRESIÓN LINEAL SIMPLE: CORRELACIÓN Y DETERMINACIÓN:
Se trata de estudiar la asociación lineal entre dos variables cuantitativas:
Regresión lineal simple: Una sola variable independiente
Regresión lineal múltiple: Mas de una variable dependiente.
Aquí, es importante destacar que si B > 0 la relación es directa ( X aumenta e Y aumenta) y si B < 0 la relación es inversa ( X disminuye e Y aumenta).
Para calcular a y b encontramos:
A su vez encontramos dos modelos lineales:
Modelos lineales deterministas: La variable independiente determina el valor de la variable dependiente, habiendo solo un valor de la dependiente para cada valor de la independiente.
Modelo probabilístico: Para cada valor de la variable independiente existe una distribución de probabilidad de valores de la dependiente, con probabilidad entre 1 y 0.
COEFICIENTES DE CORRELACIÓN
Para las variables cuantitativas normales utilizaremos el coeficiente de correlación e de Pearson mientras que para las variables cuantitativas no normales y variables ordinales utilizaremos el coeficiente de relación por Rango o de rho Sprarman.
Coeficiente de correlación de Pearson:
Es un coeficiente que mide lel grado de la relación de dependencia que existe entre las variables (x,y), cuyos valores van desde -1 hasta 1. La magnitud del coeficiente de correlación (r) indica cuan cerca están los puntos de la recta:
Si r es menor que 0 = lineal inversa. Si r es mayor de 0 = relación directa. Si r = 0, tenemos variables independientes o que no son lineales.
Coeficiente de relación por Rango o de rho de Sprearman.
Por lo tanto: El coeficiente de correlación (Pearson y Spearman): Son números dimensionales (entre 1 y -1) que mide la fuerza y el sentido de la relación lineal entre dos viables:
RESUMIENDO UN POCO... Primero establecemos en un tabla los datos, observamos las dos hipótesis de partida. Traslados los datos a los ejes de los datos, y observamos una relación inversa en función del valor que hemos obtenido al aplicar la fórmula
EJEMPLO:
¿ CÓMO EVALUAMOS LA BOLDAD DE AJUSTE DE ESTE MODELO?
Se evalúa a través del coeficiente de determinación (R2), siendo un valor acotado entre el 0 y el 1. Cuanto mas se acerque a 1, mayor poder explicativo, mayor bondad de ajuste, es decir, mas Cantidad de puntos de la nube están cerca realmente de ese modelo.
--> R2 x 100 = Porcentaje de variaciones explicadas por el modelo
Por ultimo, se realiza el calculo del test de hipotesis para modelos de regresión lineal simple (t de Kendall):
t > valor de la tabla, rechazamos la hipótesis nula
No hay comentarios:
Publicar un comentario