Sí, la adición de controles puede aumentar el poder de su análisis estadísticos y hacer que los errores estándar pequeños. Para ver esto, considere las siguientes dos regresiones para la comparación:
$$
\begin{align}
Y_i &= \alpha + \beta D_i + X'_i\gamma +e_i \newline
Y_i &= \mu + \pi D_i + u_i
\end{align}
$$
Suponga que $X,D$ no están correlacionados con los términos de error $e$ $u$ y que hemos homoscedasticity. Entonces usted puede demostrar que:
$$
\begin{align}
\sqrt{n}(\widehat{\beta} - \beta) &\stackrel{d}\rightarrow N\left(0, \frac{E(e^2)}{\text{Var}(D_i)(1-R^2_{D,X})} \right) \newline
\sqrt{n}(\widehat{\mu} - \mu) &\stackrel{d}\rightarrow N\left( 0,\frac{E(u^2)}{\text{Var}(D_i)} \right)
\end{align}
$$
donde $\stackrel{d}\rightarrow$ denota la convergencia en distribución y $R^2_{D,X}$ $R^2$ a partir de la regresión de $D_i$$X_i$. No voy a probar esto a menos que usted lo solicite explícitamente debido a que el principal punto de interés es el siguiente resultado, que utiliza las variaciones de estas dos distribuciones. El cociente de las dos varianzas asintóticas es:
$$
\frac{1-R^2_{Y,(D,X)}}{1-R^2_{Y,D}}\cdot \frac{1}{1-R^2_{D X}}
$$
donde de nuevo $R^2_{Y,(D,X)}$ $R^2_{Y,D}$ $R^2$s de la primera y la segunda regresión, respectivamente.
Lo que hace esta relación de decir?
- Se muestra el trade-off en asintótica variaciones cuando se va desde el corto al largo de regresión. El primer término es menor que (o igual a) desde $R^2$ aumenta al agregar $X_i$ a la regresión. Será mucho más pequeño que uno de los si $X_i$ explica una gran parte de la variación en $Y_i$. Así que esta es la manera en que los errores estándar de disminución.
- El segundo plazo será mayor que (o igual a) en función de la correlación entre el$D_i$$X_i$. Si los dos están fuertemente correlacionados, entonces el $R^2$ a partir de la regresión de $D_i$ $X_i$ será grande y por lo tanto, este segundo mandato será de gran es por ello que sus errores estándar aumentar en este caso.
Si $D_i$ $X_i$ están correlacionadas (por ejemplo, si $D_i$ proviene de un experimento aleatorio), a continuación,$R^2_{D,X} = 0$. Este es el caso cuando la adición de variables de control es muy preferible debido a que absorben la varianza residual y aumentar el poder de tus pruebas estadísticas en $D_i$ lo cual es genial si esta es la variable de interés.
Así que ¿por qué no sus errores estándar de cambio? Es probablemente porque los dos contrarrestar los efectos de la adición de controles a la regresión de equilibrio de cada uno de los otros.