Para una AR(2) puedo conseguir las ecuaciones de Yule-Walker: $$\begin{cases} \rho_1=\alpha_1+\alpha_2\rho_1 \ \rho_2=\alpha_1\rho_1+\alpha_2 \ \rho_k=\alpha1\rho{k-1}+\alpha2\rho{k-2} \end{cases}$ $ a partir de la matriz de autocorrelación. Pero, ¿cómo puedo gestionar la parte MA para obtener la matriz de autocorrelación completa en el caso de un ARMA(2,2)?
Respuesta
¿Demasiados anuncios?Vamos a definir un ARMA modelo de las órdenes de $(p,q)$ como sigue:
$$ \psi_t \equiv \sum_{i=0}^p \alpha_i\, y_{t-i} = \sum_{i=0}^q \theta_i\, \epsilon_{t-i} \,, \mbox{ con } \epsilon_t \sim NID\,(0, \sigma^2_\epsilon) \,. $$
donde $\alpha_0$ $\theta_0$ son normalizados a $1$.
Se puede comprobar que al multiplicar $\psi_t$ $\psi_{t-\tau}$ y de tomar las expectativas en ambos lados de la ecuación se obtiene:
\begin{equation} \sum_{i=0}^p \sum_{j=0}^p \alpha_i \alpha_j \gamma_{\tau+j-i} = \sigma^2_\epsilon \sum_{j=0}^{q-\tau} \theta_j \theta_{j+\tau} \,, \end{equation}
donde $\gamma_i$ es el autocovariance de orden $i$.
El mapeo entre el autocovariances y los parámetros en un modelo ARMA no es tan gratificante como en un modelo de AR. La ecuación anterior no devuelve un sistema de ecuaciones que puede ser resuelto fácilmente para obtener una estimación de los parámetros por el método de los momentos. El Yule-Walker ecuaciones de cambio son fáciles de resolver y volver una estimación de los coeficientes AR.
Aunque no es sencillo, el método de los momentos todavía pueden ser aplicados para un ARMA modelo por medio de dos pasos de procedimiento: el primer paso se utiliza el Yule-Walker ecuaciones y el segundo paso se basa en la ecuación de arriba. Si tu pregunta va en esta dirección te podría dar más detalles al respecto.
Editar
El siguiente es un extracto del pp 545-546 en el D. S. G. Pollock (1999), manual de análisis de series de tiempo, el procesamiento de la señal y la dinámica, Academic Press (cambiado la notación $\theta$ $\mu$ en la fuente original):
1)
\begin{eqnarray} \begin{array}{lcl} E(\psi_t\psi_{t-\tau}) &=& E\left\{ \left( \sum_i \theta_i \epsilon_{t-i} \right) \left( \sum_j \theta_j \epsilon_{t-\tau-j} \right) \right\} \\ &=& \sum_i \sum_j \theta_i \theta_j E(\epsilon_{t-i} \epsilon_{t-\tau-j}) \\ &=& \sigma^2_\epsilon \sum_j \theta_j \theta_{j+\tau} \,. \end{array} \end{eqnarray}
2)
\begin{eqnarray} \begin{array}{lcl} E(\psi_t\psi_{t-\tau}) &=& E\left\{ \left( \sum_i \alpha_i y_{t-i} \right) \left( \sum_j \alpha_j y_{t-\tau-j} \right) \right\} \\ &=& \sum_i \sum_j \alpha_i \alpha_j E(y_{t-i} y_{t-\tau-j}) \\ &=& \sum_i \sum_j \alpha_i \alpha_j \gamma_{\tau+j-i} \,. \end{array} \end{eqnarray}
Poner (1) y (2) juntas:
$$ \sum_i\sum_j \alpha_i\alpha_j\gamma_{\tau+j-i} = \sigma^2_\epsilon \sum_j \theta_j \theta_{j+\tau} \,. $$