Supongamos que ejecutamos la regresión lineal simple$Y = \alpha + \beta X + \epsilon$. Quiero probar si la variable independiente$X$ es exógena. Si la correlación entre la variable independiente$X$ y el residuo de la regresión lineal$\epsilon$ es casi cero, es decir,$cor(X, \epsilon) \approx 0$, ¿puedo concluir que esta simple prueba sugiere que la variable independiente$X$ es exógeno?
Respuesta
¿Demasiados anuncios?El modelo de regresión lineal es $$ \boldsymbol{Y} = \mathbf{X}\boldsymbol{\beta} + \boldsymbol{\varepsilon} $$ junto con el condicional uncorrelatedness suposición $\mathbb{E}( \mathbf{X}\boldsymbol{\varepsilon}) = \boldsymbol{0}$.
Si la estimación de los parámetros $\boldsymbol{\beta}$ ganancias por mínimos cuadrados, la primera a las condiciones de la orden (normal ecuaciones) $$ \begin{align} \mathbf{X}'\left(\boldsymbol{Y} - \mathbf{X}\hat{\boldsymbol{\beta}} \right) &= \boldsymbol{0} \\ \mathbf{X}'\hat{\boldsymbol{\varepsilon}} &= \boldsymbol{0} \end{align} $$
donde la última línea indica que la correlación entre los residuos y los regresores es siempre cero para un modelo de regresión lineal estimado por mínimos cuadrados. Por lo tanto este no puede constituir la base de una prueba para la incondicional uncorrelatedness hipótesis en el modelo de regresión lineal.
Con el fin de probar el supuesto de exogeneidad, usted tendrá acceso a variables instrumentales. Ver el Durbin-Wu-Hausman test.