Mi conjunto de datos ($N \approx 10,000$) tiene una variable dependiente (VD), cinco independiente "línea de base" de las variables (P1, P2, P3, P4, P5) y una variable independiente de interés (P).
He corrido OLS regresiones lineales para los dos siguientes modelos:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
I. e., agregar el predictor Q ha disminuido la cantidad de varianza explicada en el modelo lineal. Como tengo entendido, esto no debería suceder.
Para ser claro, estos son los valores de R cuadrado y no ajustado los valores de R cuadrado.
He verificado los valores de R cuadrado utilizando Jasp y Python statsmodels.
¿Hay alguna razón por la que pude ver de este fenómeno? Tal vez algo que esté relacionado con el método OLS?