27 votos

¿Cómo identifican ACF y PACF el orden de los términos MA y AR?

Hace más de 2 años que estoy trabajando en diferentes series temporales. He leído en muchos artículos que ACF se utiliza para identificar el orden del término MA, y PACF para AR. Hay una regla general que para MA, el retraso donde ACF se apaga de repente es el orden de MA y de manera similar para PACF y AR.

Aquí está uno de los artículos Seguí desde PennState Eberly College of Science.

Mi pregunta es ¿por qué es así? Para mí incluso ACF puede dar AR plazo. Necesito una explicación de la regla del pulgar mencionada anteriormente. No soy capaz de entender la regla del pulgar intuitivamente / matemáticamente que por qué -

La identificación de un modelo AR suele hacerse mejor con el PACF.
La identificación de un modelo MA suele hacerse mejor con el ACF que con el PACF

Tenga en cuenta que no necesito el "cómo", sino el "POR QUÉ" :)

26voto

Antoni Parellada Puntos 2762

Las citas proceden del enlace que figura en la OP:

La identificación de un modelo AR suele hacerse mejor con el PACF.

Para un modelo AR, el PACF teórico se "apaga" pasado el orden de del modelo. La expresión "se apaga" significa que, en teoría, las autocorrelaciones parciales son iguales a $0$ más allá de ese punto. Dicho de otro modo, el número de autocorrelaciones parciales distintas de cero da el orden de la modelo AR. Por "orden del modelo" se entiende el retardo más extremo de x que se utiliza como predictor.

... a $k^{\text{th}}$ autoregresión de orden, escrita como AR( $k$ ), es una regresión lineal múltiple en la que el valor de la serie en cualquier momento t es una función (lineal) de los valores en los momentos $t-1,t-2,\ldots,t-k:$

$$\begin{equation*} y_{t}=\beta_{0}+\beta_{1}y_{t-1}+\beta_{2}y_{t-2}+\cdots+\beta_{2}y_{t-k}+\epsilon_{t}. \end{equation*}$$

Esta ecuación parece un modelo de regresión, como se indica en la página enlazada... Entonces, ¿qué es un posible intuición...

En susurros chinos o en el juego del teléfono como se ilustra aquí

enter image description here

el mensaje se distorsiona al susurrarse de persona a persona, y la frase es completamente nueva después de pasar por dos personas. Por ejemplo, en el momento $t_2$ el mensaje, es decir " $\color{lime}{\small\text{CC}}$'s pool ", tiene un significado completamente distinto al de $t_o,$ es decir " CV is cool! " El " correlación " que existía con $t_1$ (" $\color{lime}{\small\text{CC}}$ es genial!") en la palabra " $\color{lime}{\small\text{CC}}$ " ha desaparecido; no quedan palabras idénticas, e incluso la entonación ("!") ha cambiado.

Este patrón se repite: hay una palabra compartida en dos marcas de tiempo consecutivas dadas, que desaparece si $t_k$ se compara con $t_{k-2}.$

Sin embargo, en este proceso de introducción de errores en cada paso hay una similitud que va más allá de un solo paso: Aunque Chrisy's pool tiene un significado distinto de CC is cool! pero no se pueden negar sus similitudes fonéticas ni la rima entre "pool" y "cool". Por tanto, no sería cierto que la correlación se detuviera en $t_{k-1}.$ Sí decae (exponencialmente), pero puede rastrearse aguas abajo durante mucho tiempo: compare $t_5$ ( Missi's cruel ) a $t_0$ ( CV is cool! ) - sigue habiendo similitudes.

Esto explica el correlograma (ACF) en un AR( $1$ ) (por ejemplo, con coeficiente $0.8$ ):

enter image description here

Se correlacionan múltiples secuencias desplazadas progresivamente, descartando cualquier contribución de los pasos intermedios. Este sería el gráfico de las operaciones implicadas:

enter image description here

En este contexto, el PACF es útil para demostrar que una vez que el efecto de $t_{k-1}$ se controla, las marcas de tiempo más antiguas que $t_{k-1}$ no explican nada de la varianza restante: todo lo que queda es ruido blanco:

enter image description here

No es difícil acercarse a la salida real de la función R mediante obteniendo regresiones MCO consecutivas a través del origen de secuencias más retardadas, y recogiendo los coeficientes en un vector. Esquemáticamente,

enter image description here


La identificación de un modelo MA suele hacerse mejor con el ACF que con el que con el PACF .

Para un modelo MA, el PACF teórico no se apaga, sino que disminuye hacia $0$ de alguna manera. Un patrón más claro para un modelo MA se en el ACF. El ACF tendrá autocorrelaciones distintas de cero sólo en los rezagos implicados en el modelo.

Un término medio móvil en un modelo de series temporales es un error pasado (multiplicado por un coeficiente).

En $q^{\text{th}}$ -modelo de media móvil de orden, denominado MA( $q$ ) es

$$x_t = \mu + w_t +\theta_1w_{t-1}+\theta_2w_{t-2}+\dots + \theta_qw_{t-q}$$

con $w_t \overset{\text{iid}}{\sim} N(0, \sigma^2_w).$

Resulta que el comportamiento de la ACF y la PACF se invierte en comparación con los procesos AR:

enter image description here

En el juego de arriba, $t_{k-1}$ fue suficiente para explicar todos los errores previos en la transmisión del mensaje (una sola barra significante en el gráfico PACF), absorbiendo todos los errores previos, que habían dado forma al mensaje final error a error. Una visión alternativa de ese AR( $1$ ) es como la suma de una larga serie de errores correlacionados (transformación de Koyck), una MA( $\infty$ ). Del mismo modo, con algunas condiciones, un MA( $1$ ) puede ser invertido en un AR( $\infty$ ).

$$x_t = - \theta x_{t-1} - \theta^2 x_{t-2} - \theta^3 x_{t-3}+\cdots +\epsilon_t$$

La parte confusa entonces es por qué los picos significativos en el ACF se detienen después del número de rezagos en MA( $q$ ). Pero en un MA( $1$ ) la covarianza sólo es diferente de cero en momentos consecutivos $\small \text{Cov}(X_t,X_{t-1})=\theta \sigma^2,$ porque sólo entonces la expansión $\small {\text{Cov}}(\epsilon_t + \theta \epsilon_{t-1}, \epsilon_{t-1} + \theta \epsilon_{t_2})=\theta \text{Cov}(\epsilon_{t-1}, \epsilon_{t-1})$ resultará en una coincidencia en las marcas de tiempo - todas las demás combinaciones serán cero debido a la condición iid.

Esta es la razón por la que el gráfico ACF es útil para indicar el número de retardos, como en este MA( $1$ ) proceso $\epsilon_t + 0.8 \epsilon_{t-1}$ en el que sólo un retardo muestra una correlación significativa, y el PACF muestra los típicos valores oscilantes que decaen progresivamente:

enter image description here

En el juego de los susurros, el error en $t_2$ ( pool ) está "correlacionado" con el valor en $t_3$ ( Chrissy's pool ); sin embargo, no existe "correlación" entre $t_3$ y el error en $t_1$ ( CC ).

La aplicación de un PACF a un proceso MA no dará lugar a "cierres", sino a un decaimiento progresivo: el control de la contribución explicativa de las variables aleatorias más tardías del proceso no hace que las más distantes resulten insignificantes, como ocurría en los procesos AR.

8voto

Callum Davids Puntos 13

Robert Nau de la Fuqua School of Business de Duke ofrece una explicación detallada y algo intuitiva de cómo pueden utilizarse los gráficos ACF y PACF para elegir órdenes AR y MA. aquí y aquí . A continuación resumo brevemente sus argumentos.

Una explicación sencilla de por qué PACF identifica la orden AR

Las autocorrelaciones parciales pueden calcularse ajustando una secuencia de modelos AR empezando sólo con el primer retardo y añadiendo progresivamente más retardo. El coeficiente del retardo $k$ en un AR( $k$ ) se obtiene la autocorrelación parcial en el retardo $k$ . Teniendo esto en cuenta, si la autocorrelación parcial "se corta"/deja de ser significativa en un determinado retardo (como se ve en un gráfico ACF), esto indica que ese retardo no añade poder explicativo a un modelo y, por tanto, que el orden AR debería ser el retardo anterior.

Una explicación más completa que también aborda el uso de ACF para identificar la orden MA

Las series temporales pueden tener firmas AR o MA:

  • Una firma AR corresponde a un gráfico PACF que muestra un corte agudo y un ACF que decae más lentamente;
  • Una firma MA corresponde a un trazado ACF que muestra un corte brusco y un trazado PACF que decae más lentamente.

Las firmas AR se asocian a menudo con una autocorrelación positiva en el retardo 1, lo que sugiere que la serie está ligeramente "infradiferenciada" (esto significa que es necesaria una mayor diferenciación para eliminar por completo la autocorrelación). Dado que los términos AR consiguen una diferenciación parcial (véase más adelante), esto puede solucionarse añadiendo un término AR al modelo (de ahí el nombre de esta firma). Por lo tanto, un gráfico PACF con un corte agudo (acompañado de un gráfico ACF que decae lentamente con un primer retardo positivo) puede indicar el orden del término AR. Nau lo expresa así

Si el PACF de la serie diferenciada muestra un corte brusco y/o la autocorrelación lag-1 es positiva, es decir, si la serie parece ligeramente "infradiferenciada", considere la posibilidad de añadir un término AR al modelo. El retardo en el que se corta el PACF es el número indicado de términos AR.

Por otra parte, las firmas MA suelen asociarse a primeros rezagos negativos, lo que sugiere que la serie está "sobrediferenciada" (es decir, que es necesario cancelar parcialmente la diferenciación para obtener una serie estacionaria). Dado que los términos MA pueden cancelar un orden de diferenciación (véase más adelante), el gráfico ACF de una serie con firma MA indica el orden MA necesario:

Si el ACF de la serie diferenciada muestra un corte brusco y/o la autocorrelación lag-1 es negativa, es decir, si la serie parece ligeramente "sobrediferenciada", considere la posibilidad de añadir un término MA al modelo. El desfase en el que se corta el ACF es el número indicado de términos MA.

Por qué los términos AR logran una diferenciación parcial y los términos MA anulan parcialmente la diferenciación previa

Tomemos un modelo ARIMA(1,1,1) básico, presentado sin la constante para simplificar:

$y_t = Y_t - Y_{t-1}$

$y_t = \phi y_{t-1} + e_t - \theta e_{t-1}$

Definición de $B$ como el operador de desfase/retroceso se puede escribir de la siguiente manera:

$y_t = (1-B)Y_t$

$y_t = \phi B y_t + e_t - \theta B e_t$

que puede simplificarse aún más para dar:

$(1-\phi B) y_t = (1-\theta B) e_t$

o equivalentemente:

$(1-\phi B)(1-B) Y_t = (1-\theta B)e_t$ .

Podemos ver que el término AR(1) nos dio el $(1-\phi B)$ término, por lo que parcialmente (si $\phi \in (0,1)$ ) aumentando el orden de diferenciación. Además, si manipulamos $B$ como variable numérica (lo que podemos hacer porque es un operador lineal), podemos ver que el término MA(1) nos daba el $(1-\theta B)$ anulando parcialmente el término de diferenciación original. $(1-B)$ -en el lado izquierdo.

3voto

gpvos Puntos 103

En un nivel superior, así es como hay que entenderlo. (Si necesita un enfoque más matemático, con mucho gusto puedo ir después de algunas de mis notas sobre el análisis de series temporales).

ACF y PACF son construcciones estadísticas teóricas como el valor esperado o la varianza, pero en ámbitos diferentes. Del mismo modo que los valores esperados surgen al estudiar variables aleatorias, ACF y PACF surgen al estudiar series temporales.

Cuando se estudian variables aleatorias, se plantea la cuestión de cómo estimar sus parámetros, que es donde entran en juego el método de los momentos, el MLE y otros procedimientos y construcciones, así como la inspección de las estimaciones, sus errores estándar, etc.

La inspección de la ACF estimada y PACF provienen de la misma idea, la estimación de los parámetros de un proceso de series temporales aleatorias. ¿Capta la idea?

Si crees que necesitas una respuesta con más inclinación matemática, dímelo e intentaré ver si puedo elaborar algo para el final del día.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X