En el entorno de la regresión lineal multivariante clásica, tenemos el modelo
Y=Xβ+ϵ
donde X representa las variables independientes, Y representa variables de respuesta múltiples, y ϵ es un término de ruido gaussiano i.i.d. El ruido tiene media cero y puede estar correlacionado entre las variables de respuesta. La solución de máxima verosimilitud para los pesos es equivalente a la solución de mínimos cuadrados (independientemente de las correlaciones de ruido) [1][2]:
ˆβ=(XTX)−1XTY
Esto equivale a resolver independientemente un problema de regresión para cada variable de respuesta. Esto puede verse en el hecho de que el i columna de ˆβ (que contiene los pesos para el i de la variable de salida) se puede obtener multiplicando (XTX)−1XT por el i columna de Y (que contiene los valores del i de la variable de respuesta).
Sin embargo, la regresión lineal multivariante difiere de la resolución por separado de los problemas de regresión individuales porque los procedimientos de inferencia estadística tienen en cuenta las correlaciones entre las múltiples variables de respuesta (por ejemplo, véase [2],[3],[4]). Por ejemplo, la matriz de covarianza del ruido aparece en las distribuciones de muestreo, los estadísticos de prueba y las estimaciones de intervalo.
Otra diferencia surge si permitimos que cada variable de respuesta tenga su propio conjunto de covariables:
Yi=Xiβi+ϵi
donde Yi representa el i la variable de respuesta, y Xi y ϵi representa su correspondiente conjunto de covariables y término de ruido. Como en el caso anterior, los términos de ruido pueden estar correlacionados entre las variables de respuesta. En este entorno, existen estimadores que son más eficientes que los mínimos cuadrados, y no pueden reducirse a resolver problemas de regresión separados para cada variable de respuesta. Por ejemplo, véase [1].
Referencias
- Zellner (1962) . Un método eficiente para estimar regresiones aparentemente no relacionadas y pruebas de sesgo de agregación.
- Helwig (2017) . Regresión lineal multivariante [Diapositivas]
- Fox y Weisberg (2011) . Multivariate linear models in R. [Appendix to: An R Companion to Applied Regression].
- Maitra (2013) . Modelos de regresión lineal multivariante. [Diapositivas]
1 votos
Véase el teorema de Frisch-Waugh-Lovell.
1 votos
@amorfati: Entonces, si entiendo bien, son lo mismo. Por qué la gente los trata de forma diferente?