Parece que incluyes el término de interacción ub:lb
pero no ub
y lb
como predictores independientes. Esto violaría el llamado "principio de marginalidad", que establece que los términos de orden superior sólo deben incluir variables presentes en los términos de orden inferior ( Para empezar, Wikipedia ). Efectivamente, ahora está incluyendo un predictor que es sólo el producto elemento-sabio de ub
y lb
.
VIFjVIFj es sólo 11−R2j11−R2j donde R2jR2j es el R2R2 cuando se ejecuta una regresión con su variable predictiva original jj como criterio predicho por todos los predictores restantes (también es el jj -elemento diagonal de R−1xR−1x la inversa de la matriz de correlación de los predictores). Así, un valor VIF de 50 indica que se obtiene un R2R2 de 0,98 al predecir ub
con los demás predictores, lo que indica que ub
es casi completamente redundante (lo mismo para lb
, R2R2 de 0,97).
Empezaría haciendo todas las correlaciones por pares entre los predictores, y ejecutaría las regresiones mencionadas para ver qué variables predicen ub
y lb
para ver si la redundancia se explica fácilmente. Si es así, puede eliminar los predictores redundantes. También se puede estudiar la regresión de cresta ( lm.ridge()
del paquete MASS
en R).
Los diagnósticos de multicolinealidad más avanzados utilizan la estructura de valores propios de XtXXtX donde XX es la matriz de diseño de la regresión (es decir, todos los predictores como vectores-columna). La condición κκ es √λmax√λmin√λmax√λmin donde λmaxλmax y λminλmin son el mayor y el menor ( ≠0≠0 ) valores propios de XtXXtX . En R, puede utilizar kappa(lm(<formula>))
, donde el lm()
El modelo suele utilizar las variables estandarizadas.
Geométricamente, κκ da una idea de la forma de la nube de datos formada por los predictores. Con 2 predictores, el gráfico de dispersión podría parecerse a una elipse con 2 ejes principales. κκ entonces te dice lo "plana" que es esa elipse, es decir, es una medida de la relación entre la longitud del eje mayor y la longitud del eje principal más pequeño. Con 3 predictores, podría tener una forma de cigarro y 3 ejes principales. Cuanto más "plana" es la nube de datos en alguna dirección, más redundantes son las variables cuando se toman juntas.
Existen algunas reglas generales para los valores no críticos de κκ (He oído menos de 20). Pero hay que tener en cuenta que κκ no es invariable bajo transformaciones de los datos que sólo cambian la unidad de las variables, como la estandarización. Esto es diferente al VIF: vif(lm(y ~ x1 + x2))
le dará el mismo resultado que vif(lm(scale(y) ~ scale(x1) + scale(x2)))
(siempre que no haya términos multiplicativos en el modelo), pero kappa(lm(y ~ x1 + x2))
y kappa(lm(scale(y) ~ scale(x1) + scale(x2)))
casi seguro que será diferente.
0 votos
¿Es su modelo de regresión logarítmica (la interacción como la restricción como bien con ellos)? En la wiki hay un artículo más completo sobre el tema de la multicolinealidad es.wikipedia.org/wiki/Multicolinealidad También sugiero explorar la etiqueta de multicolinealidad en este sitio, parece ser una pregunta frecuente.
0 votos
@Dmitrij Celov: Gracias. No, mi modelo es una simple regresión lineal sin registros...
0 votos
Creo que ( statisticalaid.com/ ) esto puede ayudarte.