7 votos

¿Cómo son afectados los errores estándar en una regresión multivariante?

Inicialmente tenemos esta regresión:

$$ \text{salario por hora} = 12.69 + 5.44\text{CollegeEducation} - 2.64\text{Mujeres} $$

con los errores estándar de $0.21$$\text{CollegeEducation}$$0.20$$\text{Female}$. La variable $\text{Age}$ es añadido a la regresión, que tiene un coeficiente de $0.29$, pero las normas de errores en la educación universitaria y hembra de la misma estancia. Maniquíes para las cuatro localidades se agregan entonces, tienen coeficientes que van desde $-0.2$$0.6$, los errores estándar en la educación universitaria y hembra de la misma estancia.

Las preguntas son:

  • ¿Por qué no los errores estándar de cambio?
  • He leído en algún sitio que agrega la no correlación de los controles aumenta la precisión y el menor de los errores estándar, es esto cierto?

10voto

Andy Puntos 10250

Sí, la adición de controles puede aumentar el poder de su análisis estadísticos y hacer que los errores estándar pequeños. Para ver esto, considere las siguientes dos regresiones para la comparación: $$ \begin{align} Y_i &= \alpha + \beta D_i + X'_i\gamma +e_i \newline Y_i &= \mu + \pi D_i + u_i \end{align} $$ Suponga que $X,D$ no están correlacionados con los términos de error $e$ $u$ y que hemos homoscedasticity. Entonces usted puede demostrar que: $$ \begin{align} \sqrt{n}(\widehat{\beta} - \beta) &\stackrel{d}\rightarrow N\left(0, \frac{E(e^2)}{\text{Var}(D_i)(1-R^2_{D,X})} \right) \newline \sqrt{n}(\widehat{\mu} - \mu) &\stackrel{d}\rightarrow N\left( 0,\frac{E(u^2)}{\text{Var}(D_i)} \right) \end{align} $$ donde $\stackrel{d}\rightarrow$ denota la convergencia en distribución y $R^2_{D,X}$ $R^2$ a partir de la regresión de $D_i$$X_i$. No voy a probar esto a menos que usted lo solicite explícitamente debido a que el principal punto de interés es el siguiente resultado, que utiliza las variaciones de estas dos distribuciones. El cociente de las dos varianzas asintóticas es: $$ \frac{1-R^2_{Y,(D,X)}}{1-R^2_{Y,D}}\cdot \frac{1}{1-R^2_{D X}} $$ donde de nuevo $R^2_{Y,(D,X)}$ $R^2_{Y,D}$ $R^2$s de la primera y la segunda regresión, respectivamente.

Lo que hace esta relación de decir?

  1. Se muestra el trade-off en asintótica variaciones cuando se va desde el corto al largo de regresión. El primer término es menor que (o igual a) desde $R^2$ aumenta al agregar $X_i$ a la regresión. Será mucho más pequeño que uno de los si $X_i$ explica una gran parte de la variación en $Y_i$. Así que esta es la manera en que los errores estándar de disminución.
  2. El segundo plazo será mayor que (o igual a) en función de la correlación entre el$D_i$$X_i$. Si los dos están fuertemente correlacionados, entonces el $R^2$ a partir de la regresión de $D_i$ $X_i$ será grande y por lo tanto, este segundo mandato será de gran es por ello que sus errores estándar aumentar en este caso.

Si $D_i$ $X_i$ están correlacionadas (por ejemplo, si $D_i$ proviene de un experimento aleatorio), a continuación,$R^2_{D,X} = 0$. Este es el caso cuando la adición de variables de control es muy preferible debido a que absorben la varianza residual y aumentar el poder de tus pruebas estadísticas en $D_i$ lo cual es genial si esta es la variable de interés.

Así que ¿por qué no sus errores estándar de cambio? Es probablemente porque los dos contrarrestar los efectos de la adición de controles a la regresión de equilibrio de cada uno de los otros.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X