6 votos

En la matriz de autocorrelación de un ARMA(2,2) para derivar las ecuaciones de Yule Walker

Para una AR(2) puedo conseguir las ecuaciones de Yule-Walker: $$\begin{cases} \rho_1=\alpha_1+\alpha_2\rho_1 \ \rho_2=\alpha_1\rho_1+\alpha_2 \ \rho_k=\alpha1\rho{k-1}+\alpha2\rho{k-2} \end{cases}$ $ a partir de la matriz de autocorrelación. Pero, ¿cómo puedo gestionar la parte MA para obtener la matriz de autocorrelación completa en el caso de un ARMA(2,2)?

3voto

einverne Puntos 126

Vamos a definir un ARMA modelo de las órdenes de $(p,q)$ como sigue:

$$ \psi_t \equiv \sum_{i=0}^p \alpha_i\, y_{t-i} = \sum_{i=0}^q \theta_i\, \epsilon_{t-i} \,, \mbox{ con } \epsilon_t \sim NID\,(0, \sigma^2_\epsilon) \,. $$

donde $\alpha_0$ $\theta_0$ son normalizados a $1$.

Se puede comprobar que al multiplicar $\psi_t$ $\psi_{t-\tau}$ y de tomar las expectativas en ambos lados de la ecuación se obtiene:

\begin{equation} \sum_{i=0}^p \sum_{j=0}^p \alpha_i \alpha_j \gamma_{\tau+j-i} = \sigma^2_\epsilon \sum_{j=0}^{q-\tau} \theta_j \theta_{j+\tau} \,, \end{equation}

donde $\gamma_i$ es el autocovariance de orden $i$.

El mapeo entre el autocovariances y los parámetros en un modelo ARMA no es tan gratificante como en un modelo de AR. La ecuación anterior no devuelve un sistema de ecuaciones que puede ser resuelto fácilmente para obtener una estimación de los parámetros por el método de los momentos. El Yule-Walker ecuaciones de cambio son fáciles de resolver y volver una estimación de los coeficientes AR.

Aunque no es sencillo, el método de los momentos todavía pueden ser aplicados para un ARMA modelo por medio de dos pasos de procedimiento: el primer paso se utiliza el Yule-Walker ecuaciones y el segundo paso se basa en la ecuación de arriba. Si tu pregunta va en esta dirección te podría dar más detalles al respecto.

Editar

El siguiente es un extracto del pp 545-546 en el D. S. G. Pollock (1999), manual de análisis de series de tiempo, el procesamiento de la señal y la dinámica, Academic Press (cambiado la notación $\theta$ $\mu$ en la fuente original):

1)

\begin{eqnarray} \begin{array}{lcl} E(\psi_t\psi_{t-\tau}) &=& E\left\{ \left( \sum_i \theta_i \epsilon_{t-i} \right) \left( \sum_j \theta_j \epsilon_{t-\tau-j} \right) \right\} \\ &=& \sum_i \sum_j \theta_i \theta_j E(\epsilon_{t-i} \epsilon_{t-\tau-j}) \\ &=& \sigma^2_\epsilon \sum_j \theta_j \theta_{j+\tau} \,. \end{array} \end{eqnarray}

2)

\begin{eqnarray} \begin{array}{lcl} E(\psi_t\psi_{t-\tau}) &=& E\left\{ \left( \sum_i \alpha_i y_{t-i} \right) \left( \sum_j \alpha_j y_{t-\tau-j} \right) \right\} \\ &=& \sum_i \sum_j \alpha_i \alpha_j E(y_{t-i} y_{t-\tau-j}) \\ &=& \sum_i \sum_j \alpha_i \alpha_j \gamma_{\tau+j-i} \,. \end{array} \end{eqnarray}

Poner (1) y (2) juntas:

$$ \sum_i\sum_j \alpha_i\alpha_j\gamma_{\tau+j-i} = \sigma^2_\epsilon \sum_j \theta_j \theta_{j+\tau} \,. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X