10 votos

Agregar un indicador de regresión lineal disminuye R squared

Mi conjunto de datos ($N \approx 10,000$) tiene una variable dependiente (VD), cinco independiente "línea de base" de las variables (P1, P2, P3, P4, P5) y una variable independiente de interés (P).

He corrido OLS regresiones lineales para los dos siguientes modelos:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

I. e., agregar el predictor Q ha disminuido la cantidad de varianza explicada en el modelo lineal. Como tengo entendido, esto no debería suceder.

Para ser claro, estos son los valores de R cuadrado y no ajustado los valores de R cuadrado.

He verificado los valores de R cuadrado utilizando Jasp y Python statsmodels.

¿Hay alguna razón por la que pude ver de este fenómeno? Tal vez algo que esté relacionado con el método OLS?

27voto

generic_user Puntos 2269

¿Podría ser que tienen valores perdidos en Q que reciben auto caído? Tendría implicaciones en la muestra, que hace las dos regresiones no comparables.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X