El típico de la diferencia-en-diferencias estimador (como efectos fijos) se ajusta a un modelo de la forma $$ y_ {} = \alpha_i + \delta T_ {} + X_ {}'\beta + \epsilon_ {} $$
donde $T$ es un tratamiento que sucede a $i$ tiempo $t$.
El coeficiente de $\delta$ es identificado desde el salto entre períodos de tiempo cuando T va de cero a uno, esencialmente utilizando como hipótesis aquellos que no reciben tratamiento durante ese período, después de controlar por características no observables que no varían en el tiempo.
Normalmente, el (panel) conjunto de datos se inicia con todos los no tratados, y termina con unas restante no se trata, mientras que otros reciben tratamiento. Alternativamente, si todo el mundo (con el tiempo) es tratada, puede incluir el tratamiento posterior de los datos para mejorar la precisión estadística -- el $\delta$ es todavía identificados a partir de los períodos de tiempo en que algunos me trataron y otros no.
Mi pregunta: ¿es de fiar para ajustar un modelo donde un grupo comienza a tratar, el otro grupo comienza a tratar, y, a continuación, el grupo sin tratar se tratan? Esta es básicamente la imagen en el espejo de una situación en la que un grupo se quedó sin tratamiento y un grupo fue tratado -- todavía tenemos la heterogeneidad en algunos períodos de tiempo. Matemáticamente parece idéntico -- el error estándar de los componentes de las motivaciones parece todavía se aplican.
Me estoy perdiendo algo?