Supongamos un modelo de regresión lineal simple, tengo $i$ empresas y $t=17$ periodos
$$Y_{it}=\alpha + \beta_2 T_2 + \beta_3 T_3 + \cdots + \beta_{16} T_{16} + \gamma_i + \varepsilon_{it}$$
En este caso, $t=1$ es el período base y $T_t$ son variables ficticias para cada uno de los otros periodos. $\gamma_i$ representa los efectos fijos de la empresa.
Cuando ejecuto esta regresión utilizando errores estándar agrupados a nivel de empresa, el intervalo de confianza (IC) del 95% de las estimaciones de los coeficientes de las variables ficticias temporales aumenta con $t$ es decir, CI de $\beta_3$ es superior a CI de $\beta_2$ CI de $\beta_4$ es superior a CI de $\beta_3$ y sigue aumentando hasta 16. Lo que no ocurre cuando no agrupo los errores estándar, los intervalos CI siguen siendo similares para los diferentes $\beta$ s.
Sospecho que esto es lógico pero, ¿sería posible tener una explicación sencilla para este comportamiento de los errores estándar agrupados?