Cómo interpretar la regresión jerárquica

La regresión jerárquica es un método estadístico para explorar las relaciones y probar hipótesis sobre una variable dependiente y varias variables independientes. La regresión lineal requiere una variable dependiente numérica. Las variables independientes pueden ser numéricas o categóricas. regresión jerárquica significa que las variables independientes no se ingresan en la regresión simultáneamente, sino en pasos. por ejemplo, una regresión jerárquica podría examinar las relaciones entre la depresión (medida por alguna escala numérica) y las variables que incluyen datos demográficos (como la edad, el sexo y el grupo étnico) en la primera etapa, y otras variables (como las puntuaciones en otras pruebas) En una segunda etapa.

Interpreta la primera etapa de la regresión.

    observe el coeficiente de regresión no estandarizado (que puede denominarse b en su salida) para cada variable independiente. para las variables independientes continuas, esto representa el cambio en la variable dependiente para cada cambio de unidad en la variable independiente. en el ejemplo, si la edad tuviera un coeficiente de regresión de 2.1, significaría que el valor predicho de la depresión aumenta en 2.1 unidades por cada año de edad.

    para las variables categóricas, la salida debe mostrar un coeficiente de regresión para cada nivel de la variable excepto uno; El que falta se llama nivel de referencia. cada coeficiente representa la diferencia entre ese nivel y el nivel de referencia en la variable dependiente. en el ejemplo, si el grupo étnico de referencia es "blanco" y el coeficiente no estandarizado para "negro" es -1.2, significaría que el valor predicho de depresión para los negros es 1.2 unidades más bajo que para los blancos.

    mire los coeficientes estandarizados (que pueden estar etiquetados con la letra griega beta). estos se pueden interpretar de manera similar a los coeficientes no estandarizados, solo que ahora están en términos de unidades de desviación estándar de la variable independiente, en lugar de unidades sin procesar. Esto puede ayudar a comparar las variables independientes entre sí.

    mire los niveles de significación, o valores p, para cada coeficiente (estos pueden estar etiquetados como "pr>" o algo similar). estos le dicen si la variable asociada es estadísticamente significativa. Esto tiene un significado muy particular que a menudo se tergiversa. significa que es poco probable que ocurra un coeficiente tan alto o más alto en una muestra de este tamaño si el coeficiente real, en toda la población de la que se extrae, fuera 0.

    mira r al cuadrado. esto muestra qué proporción de la variación en la variable dependiente es contabilizada por el modelo.

Interpreta las etapas posteriores de la regresión, el cambio y el resultado general.

    repita lo anterior para cada etapa posterior de la regresión.

    compare los coeficientes estandarizados, los coeficientes no estandarizados, los niveles de significación y los r-cuadrados en cada etapa con respecto a la etapa anterior. estos pueden estar en secciones separadas de la salida, o en columnas separadas de una tabla. esta comparación le permite saber cómo las variables en la segunda etapa (o posterior) afectan las relaciones en la primera etapa.

    Mira el modelo completo, incluyendo todas las etapas. observe los coeficientes no estandarizados y estandarizados y los niveles de significación para cada variable y la r al cuadrado para todo el modelo.

    advertencia

    Este es un tema muy complejo.



Continuar Leyendo >

Articulos relacionados a la energia