Considere la posibilidad de un $ARMA(1,2)$ proceso $$ Y_t=\phi Y_{t-1}+\epsilon_t+\theta_1\epsilon_{t-1}+\theta_2\epsilon_{t-2} $$ Supongamos que nuestro interés se centra en estimar $\phi$ pero no tenemos conocimiento de la $MA$ componentes (o simplemente no sabemos cómo ajustar los modelos ARMA :-)).
Por lo tanto, una estrategia podría consistir en realizar simplemente una regresión OLS de $Y_t$ en $Y_{t-1}$ . Sin embargo, esa regresión estimaría de forma inconsistente $\phi$ como regresor $Y_{t-1}$ está correlacionada con $\epsilon_{t-1}$ y $\epsilon_{t-2}$ que se puede ver directamente al desplazar el modelo ARMA(2,1) en un período:
$$ Y_{t-1}=\phi Y_{t-2}+\epsilon_{t-1}+\theta_1\epsilon_{t-2}+\theta_2\epsilon_{t-3} $$ (Se podría calcular el plim exacto como para el IV a continuación).
Supongamos que en su lugar utilizamos el IV para estimar $\phi$ . El estimador IV de $\phi$ utilizando el retardo $Y_{t-2}$ como instrumento para $Y_{t-1}$ es $$ \hat{\phi}_{IV}=\frac{\sum_tY_{t-2}Y_{t}}{\sum_tY_{t-2}Y_{t-1}} $$ Por lo tanto, su límite de probabilidad es $$ \hat{\phi}_{IV}=\frac{\frac{1}{T}\sum_tY_{t-2}Y_{t}}{\frac{1}{T}\sum_tY_{t-2}Y_{t-1}}\to_p\frac{\gamma_2}{\gamma_1}, $$ donde $\gamma_j$ denota el $j$ la autocovarianza.
Primero encontramos el $MA(\infty)$ representación del proceso para encontrar las autocovarianzas necesarias para expresar el límite de probabilidad.
Coeficientes de coincidencia en $$ (1-\phi L)(\psi_0+\psi_1L+\psi_2L^2+\psi_3L^3+\ldots)=1+\theta_1L+\theta_2L^2 $$ da \begin {eqnarray*} \psi_0 &=&1 \\ - \phi\psi_0 + \psi_1 &=& \theta_1\quad\Rightarrow\quad\psi_1 = \theta_1 + \phi\\ - \phi\psi_1 + \psi_2 &=& \theta_2\quad\Rightarrow\quad\psi_2 = \theta_2 + \phi ( \theta_1 + \phi ) \\ - \phi\psi_2 + \psi_3 &=&0 \quad\Rightarrow\quad\psi_3 = \phi ( \theta_2 + \phi ( \theta_1 + \phi )) \\ \psi_j &=& \phi ^{j-2}( \theta_2 + \phi ( \theta_1 + \phi )) \qquad j>1 \end {eqnarray*}
Ahora podemos usar esto para encontrar $\gamma_1$ y $\gamma_2$ .
A partir del resultado general sobre la autocovarianza de un $MA(\infty)$ proceso que $\gamma_k=\sigma^2\sum_{j=0}^{\infty}\psi_j\psi_{j+k}$ concluimos que $\gamma_1=\sigma^2\sum_{j=0}^{\infty}\psi_j\psi_{j+1}$ . Por lo tanto, \begin {eqnarray*} \gamma_1 &=& \sigma ^2 \left [ \theta_1 + \phi +( \theta_1 + \phi )( \theta_2 + \phi ( \theta_1 + \phi ))+( \theta_2 + \phi ( \theta_1 + \phi )) \sum_ {j=2}^ \infty\phi ^{j-2} \phi ^{j-1} \right ] \\ &=& \sigma ^2 \left [ \theta_1 + \phi +( \theta_1 + \phi )( \theta_2 + \phi ( \theta_1 + \phi ))+ \phi\frac {( \theta_2 + \phi ( \theta_1 + \phi ))}{1- \phi ^2} \right ], \end {eqnarray*} como $\sum_{j=2}^\infty\phi^{j-2}\phi^{j-1}=\sum_{j=2}^\infty\phi^{2j-3}=\phi\sum_{j=0}^\infty\phi^{2j}$ . De la misma manera, \begin {eqnarray*} \gamma_2 &=& \sigma ^2 \sum_ {j=0}^{ \infty } \psi_j\psi_ {j+2} \\ &=& \sigma ^2 \left [ \theta_2 + \phi ( \theta_1 + \phi )+( \theta_1 + \phi ) \phi ( \theta_2 + \phi ( \theta_1 + \phi ))+( \theta_2 + \phi ( \theta_1 + \phi )) \sum_ {j=2}^ \infty\phi ^{j-2} \phi ^{j} \right ] \\ &=& \sigma ^2 \left [ \theta_2 + \phi ( \theta_1 + \phi )+( \theta_1 + \phi ) \phi ( \theta_2 + \phi ( \theta_1 + \phi ))+ \phi ^2 \frac {( \theta_2 + \phi ( \theta_1 + \phi ))}{1- \phi ^2} \right ] \end {eqnarray*}
Por lo tanto, el estimador IV converge a $$ \hat{\phi}_{IV}\to_p\frac{\sigma^2\left[\theta_2+\phi(\theta_1+\phi)+(\theta_1+\phi)\phi(\theta_2+\phi(\theta_1+\phi))+\phi^2\frac{(\theta_2+\phi(\theta_1+\phi))}{1-\phi^2}\right]}{\sigma^2\left[\theta_1+\phi+(\theta_1+\phi)(\theta_2+\phi(\theta_1+\phi))+\phi\frac{(\theta_2+\phi(\theta_1+\phi))}{1-\phi^2}\right]} $$ Esto no equivale a $\phi$ en general.
Intuitivamente, el instrumento no está descorrelacionado con el término de error, ya que $E(Y_{t-2}\epsilon_{t-2})\neq0$ .
Sin embargo, si, $\theta_2=0$ (es decir, tenemos un $ARMA(1,1)$ ) el estimador IV sería consistente para $\phi$ : $$ \hat{\phi}_{IV}\to_p\frac{\phi(\theta_1+\phi)+\phi^2(\theta_1+\phi)^2+\phi^2\frac{(\phi(\theta_1+\phi))}{1-\phi^2}}{\theta_1+\phi+\phi(\theta_1+\phi)^2+\phi\frac{(\phi(\theta_1+\phi))}{1-\phi^2}}=\phi $$
El resultado se muestra de forma similar en la estimación de modelos de datos de panel dinámicos, es decir, que no debe haber autocorrelación de orden superior para que la primera diferenciación para eliminar los efectos fijos no induzca la correlación entre los términos de error diferenciados y los instrumentos.
0 votos
Cuando $X_{t-2}$ tiene efectos causales directos tanto en $X_{t-1}$ y $X_{t}$ ? Cuando $X_{t-2}$ tiene efectos causales directos sobre $X_{t-1}$ y también en $Z_{t-1}$ y $Z_{t-1}$ tiene un efecto causal directo sobre $X_{t}$ que no está mediada por $X_{t-1}$ (y $X_{t-1}$ El efecto de $X_{t}$ no está mediada por $Z_{t-1}$ )?