Recordemos que los errores estándar son los elementos de la diagonal de la matriz
$$
\hat\sigma^2(X X)^{-1}
$$
Como se ha señalado por @repmat, este resultado requiere que cada grupo es de igual tamaño, es decir, que
$$\sum_iG_{ji}=c$$
para $j=1,\ldots,J$.
En ese caso, usted puede comprobar fácilmente que
$$
X X=n
\begin{pmatrix}
1&1/J&\cdots&\cdots&\cdots&1/J\\
1/J&1/J&0&\cdots&\cdots&0\\
1/J&0&1/J&\ddots&\cdots&0\\
\vdots&0&0&\ddots&\ddots&0\\
\vdots&\vdots&\cdots&\ddots&\ddots&0\\
1/J&0&\cdots&\cdots&0&1/J\\
\end{pmatrix},
$$
suponiendo que la primera columna contiene el término constante. Suponiendo que uno de los redundante dummies ha disminuido, por lo que el $X'X$ es de dimensión $J\times J$, la inversa es
$$
(X X)^{-1}=\frac{1}{n}\begin{pmatrix}
J&-J&\cdots&&\cdots&-J\\
-J&2J&J&\cdots&\cdots&J\\
\vdots&J&2J&J&&J\\
&\vdots&J&2J&\ddots&\vdots\\
\vdots&\vdots&&\ddots&2J&J\\
-J&J&\cdots&\cdots&J&2J
\end{pmatrix}
$$
Vemos que los elementos de la diagonal son idénticos (salvo la relativa a la constante), produciendo idénticos errores estándar.
La naturaleza de la $y_i$ es irrelevante, ya que estos entran los errores estándar sólo a través de la $\hat\sigma^2$, que, sin embargo, obviamente sólo se multiplica cada elemento de a $(X'X)^{-1}$ y por lo tanto no afecta el resultado de que los elementos de la diagonal son idénticos.
Este resultado también muestra que el cuadrado error estándar en la constante es la mitad que la de los maniquíes.
P. S.: Como se sugirió por Alecos en los comentarios, podemos definir el bloque de la matriz
$$
X X=
n\begin{pmatrix}
A&B\\C&D
\end{pmatrix},
$$
con $A=1$, $B=(1/J,\ldots, 1/J)$, $C=B'$ y $D=I/J$ y el uso de un resultado en particiones inversos que la parte inferior derecha del bloque tiene inversa
$$
D^{-1}+D^{-1}C(A-BD^{-1}C)^{-1}BD^{-1}
$$
para ver que el resultado es presentado como el anterior.
ACTUALIZACIÓN: en Cuanto a la discusión en los comentarios de @repmat la respuesta, el número de equivalencia no exactamente robusto de los errores estándar.
Esto es debido a que la "carne" de la matriz $X'\Sigma_uX$ la robustez de la varianza del estimador de
$$
(X X)^{-1}X'\Sigma_uX(X X)^{-1}
$$
tiene una diagonal
$$
\begin{pmatrix}
\sum_{i=1}^n\hat{u}_i^2\\
\sum_{i=1,\,i\in j=1}^n\hat{u}_i^2\\
\vdots\\
\sum_{i=1,\,i\in j=J-1}^n\hat{u}_i^2\\
\end{pmatrix}
$$
(suponiendo que el grupo de $J$ ha sido eliminado para evitar la multicolinealidad), y en general no hay razón para creer que las sumas de los cuadrados de los residuos pertenecientes a los diferentes grupos son idénticos.
Las diferencias son menores, aunque (al menos bajo homoskedasticity). Aquí es una modificación de su ilustración:
set.seed(42)
n <- 999
library(sandwich)
library(lmtest)
year1 <- data.frame(rep(1, n/3))
year2 <- data.frame(rep(2, n/3))
year3 <- data.frame(rep(3, n/3))
require(plyr)
years <- rbind.fill(year1, year2, year3)
years[is.na(years)] <- 0
years <- as.factor(rowSums(years))
y <- round(runif(n),0)
reg <- lm(y ~ years)
coeftest(reg, vcov = vcovHC(reg, "HC0"))
>
t test of coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.486486 0.027390 17.7616 <2e-16 ***
years2 -0.027027 0.038678 -0.6988 0.4849
years3 -0.012012 0.038717 -0.3103 0.7564
---
Signif. codes: 0 ‘***' 0.001 ‘**' 0.01 ‘*' 0.05 ‘.' 0.1 ‘ ' 1