9 votos

Probando el Teorema TARDÍO de Angrist e Imbens 1994

Supongamos que tenemos un instrumento binario $Z_i$ que puede utilizarse para estimar el efecto de la variable endógena $D_i$ sobre el resultado $Y_i$ . Supongamos que el instrumento tiene una primera etapa significativa, se asigna al azar, satisface la restricción de exclusión y satisface la monotonicidad como se describe en Angrist e Imbens (1994). http://www.jstor.org/discover/10.2307/2951620?uid=3738032&uid=2&uid=4&sid=21104754800073

Afirman que la probabilidad de ser un complaciente ( $C_i$ ) es $$ \text {Pr}(C_i) = \text {Pr}(D_i = 1|Z_i = 1) - \text {Pr}(D_i = 1 - Z_i = 0)$$ y la diferencia en los resultados potenciales para la subpoblación de los complicadores es $$E(Y_{i1} - Y_{i0}|C_i) = \frac {E(Y_i|Z_i=1)-E(Y_i|Z_i=0)}{E(D_i|Z_i=1)-E(D_i|Z_i=0)}$$

¿Puede alguien arrojar algo de luz sobre cómo consiguen estas dos expresiones y, más importante aún, cómo las combinan? Trato de entender esto por su artículo de revista, pero no le encuentro sentido. Cualquier ayuda en esto sería muy apreciada.

6voto

Andy Puntos 10250

Para la primera parte usted declaró que tiene un instrumento "válido". Esto implica para un tratamiento binario e instrumento que $Cov(D_i,Z_i) \neq 0$ es equivalente a $P(D_i = 1|Z_i = 1) \neq P(D_i = 1|Z_i = 0)$ es decir, el instrumento tiene un efecto sobre la elección del tratamiento o no. Esta observación, que también debe ser declarada en el documento de Angrist e Imbens, es clave para el resto de sus pruebas. Para la primera etapa asumen que $P(D_i = 1|Z_i = 1) > P(D_i = 1|Z_i = 0)$ lo que significa que el número de complicadores ( $C_i)$ es mayor que la de los desafiantes ( $F_i$ ).

Utilizando la restricción de exclusión (para cada $z \in $ { $0;1$ tenemos que $Y_{iz} = Y_{i0z} = Y_{i1z}$ (es decir, el instrumento no tiene un efecto directo sobre el resultado) se puede escribir la diferencia en la proporción de los que complacen y los que no complacen en la población como $$ \begin {align} P(D_i = 1|Z_i = 1) - P(D_i = 1|Z_i = 0) &= P(D_{i1} = 1|Z_i = 1) - P(D_{i0} = 1|Z_i = 0) \newline &= P(D_{i1} = 1) - P(D_{i0} = 0) \newline &= \left [ P(D_{i1} = 1, D_{i0} = 0) + P(D_{i1} = 1, D_{i0} = 1) \right ] - \left [ P(D_{i1} = 0, D_{i0} = 1) + P(D_{i1} = 1, D_{i0} = 1) \right ] \newline &= P(C_i) – P(F_i) \end {align} $$ donde el segundo paso utiliza la independencia para deshacerse del condicionamiento en $Z_i$ porque los posibles resultados son independientes del instrumento. En el tercer paso se utiliza la ley de la probabilidad total. En el último paso sólo hay que utilizar la monotonicidad, que básicamente supone que los desafiantes no existen, por lo que $P(F_i) = 0$ y te quedas con $$P(C_i) = P(D_i = 1|Z_i = 1) - P(D_i = 1|Z_i = 0).$$ Este sería su primer coeficiente de etapa en una regresión de 2SLS. La suposición de monotonicidad es crucial para esto y uno debe pensar bien en las posibles razones por las que podría ser violada (sin embargo, la monotonicidad puede ser relajada, ver por ejemplo de Chaisemartin (2012) "Todo lo que necesitas es TARDAR" ).

La segunda parte de la prueba sigue un camino similar. Para ello hay que recordar que el estado de tratamiento observado es $$D_i = Z_iD_{i1} + (1-Z_i)D_{i0}$$ porque no se pueden observar ambos resultados potenciales para el mismo individuo. De esta manera se puede relacionar el resultado observado con el resultado potencial, el estado del tratamiento y el instrumento como $$Y_i = (1-Z_i)(1-D_i)Y_{i00} + Z_i(1-D_i)Y_{i10} + (1-Z_i)D_iY_{i01} + Z_iD_iY_{i11}$$ Para la segunda parte de la prueba tome la diferencia en el resultado esperado con el instrumento encendido y en marcha, y utilice la representación anterior de los resultados observados y la restricción de exclusión en el primer paso para obtener: $$ \begin {align} E(Y_i|Z_i = 1) – E(Y_i|Z_i=0) &= E(Y_{i1}D_i + Y_{i0}(1-D_i)|Z_i=0) \newline &- E(Y_{i1}D_i + Y_{i0}(1-D_i)|Z_i=1) \newline &= E(Y_{i1}D_{i1} + Y_{i0}(1-D_{i1})|Z_i=1) \newline &- E(Y_{i1}D_{i0} + Y_{i0}(1-D_{i0})|Z_i=0) \newline &= E(Y_{i1}D_{i1} + Y_{i0}(1-D_{i1})) \newline &- E(Y_{i1}D_{i0} + Y_{i0}(1-D_{i0})) \newline &= E((Y_{i1}-Y_{i0})(D_{i1}-D_{i0})) \newline &= E(Y_{i1}-Y_{i0}|D_{i1}-D_{i0}=1)P(D_{i1}-D_{i0} = 1) \newline &- E(Y_{i1}-Y_{i0}|D_{i1}-D_{i0}=-1)P(D_{i1}-D_{i0} = -1) \newline &= E(Y_{i1}-Y_{i0}|C_i)P(C_i) - E(Y_{i1}-Y_{i0}|F_i)P(F_i) \newline &= E(Y_{i1}-Y_{i0}|C_i)P(C_i) \end {align} $$

Ahora bien, esto fue un poco de trabajo, pero no es tan malo si sabes los pasos que tienes que dar. Para la segunda línea, usa de nuevo la restricción de exclusión para escribir los posibles estados de tratamiento. En la tercera línea usa la independencia para deshacerse del condicionamiento en $Z_i$ como antes. En la cuarta línea, sólo se incluyen los términos. La quinta línea utiliza la ley de las expectativas iteradas. La última línea surge debido al supuesto de monotonicidad, es decir. $P(F_i)=0$ . Entonces sólo necesitas dividirte como último paso y llegas a $$ \begin {align} E(Y_{i1}-Y_{i0}|C_i) &= \frac {E(Y_i|Z_i = 1) – E(Y_i|Z_i=0)}{P(C_i)} \newline &= \frac {E(Y_i|Z_i = 1) – E(Y_i|Z_i=0)}{P(D_i = 1|Z_i = 1) - P(D_i = 1|Z_i = 0)} \newline &= \frac {E(Y_i|Z_i = 1) – E(Y_i|Z_i=0)}{E(D_i|Z_i = 1) - E(D_i|Z_i = 0)} \end {align}$$ desde $D_i$ y $Z_i$ son binarios. Esto debería mostrar cómo se combinan las dos pruebas y cómo llegan a la expresión final.

6voto

Neal Puntos 316

Hay cuatro tipos de personas:

  1. Never Takers (NT): $D = 0$ para ambos valores de Z
  2. Defensores (DF): $D=0$ cuando $Z =1$ y $D=1$ cuando $Z =0$
  3. Cumplidores (C): $D=1$ cuando $Z =1$ y $D=0$ cuando $Z =0$
  4. Siempre Tomadores (AT): $D =1$ para ambos valores de $Z$ .

La fórmula del estimador de Wald es: $$ \Delta_ {IV} = \frac {E(Y|Z=1)−E(Y|Z=0)}{Pr(D=1|Z =1)−Pr(D=1|Z =0)}$$

Usando nuestros 4 grupos y las reglas básicas de probabilidad, podemos reescribir las dos piezas del numerador como: $$E(Y|Z=1)=E(Y_1 |AT) \cdot Pr(AT)+E(Y_1 |C) \cdot Pr(C)+E(Y_0 |DF) \cdot Pr(DF)+E(Y_0 |NT) \cdot Pr(NT)$$ y $$E(Y|Z=0)=E(Y_1 |AT) \cdot Pr(AT)+E(Y_0 |C) \cdot Pr(C)+E(Y_1 |DF) \cdot Pr(DF)+E(Y_0 |NT) \cdot Pr(NT) $$

Los dos términos denominadores son: $$ Pr(D=1|Z =1)=Pr(D=1|Z =1,AT) \cdot Pr(AT)+Pr(D=1|Z =1,C) \cdot Pr(C) \\ =Pr(AT)+Pr(C) $$ y $$ Pr(D=1|Z =0)=Pr(D=1|Z = 0,AT) \cdot Pr(AT)+Pr(D=1|Z =0,DF) \cdot Pr(DF) \\ =Pr(AT)+Pr(DF)$$

La primera de ellas corresponde a su primera expresión.

Volviendo a la fórmula de Wald y enchufando estos, vemos que algunos de estos términos se cancelan en la resta, dejando $$ \Delta_ {IV} = \frac {[E(Y_1 |C) \cdot Pr(C)+E(Y_0 |D) \cdot Pr(D)]−[E(Y_0 |C) \cdot Pr(C)+E(Y_1 |DF) \cdot Pr(DF)]}{Pr(C) − Pr(DF)}.$$ This da una idea. El estimador Wald IV es un promedio ponderado del efecto del tratamiento sobre los complacientes y el negativo del efecto del tratamiento sobre los complacientes.

Ahora hacemos dos suposiciones. Primero, asumimos la monotonicidad, de modo que el instrumento sólo puede aumentar o disminuir la probabilidad de participación. Esto significa que $Pr(DF) = 0$ . La hipótesis de monotonicidad equivale a suponer un modelo de función de índice para el tratamiento. La segunda suposición es que hay algunos complicadores, es decir que $Pr(C) > 0$ . El comportamiento de algunos individuos debe ser alterado por el instrumento. Este debería ser el caso si el instrumento es relevante. Estos dos supuestos producen

$$ \Delta_ {IV} = \frac {E(Y_1 |C) \cdot Pr(C)−E(Y_0 |C) \cdot Pr(C)}{Pr(C)}=E(Y_1 |C)−E(Y_0 |C)=LATE.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X