5 votos

Propiedad sin memoria de una cadena de Markov de orden 1. ¿Es AR(1) sin memoria o de memoria infinita?

Un proceso estocástico constituye una cadena de Markov discreta de orden 1 si tiene la propiedad de no tener memoria, en el sentido de que la probabilidad de que la cadena se encuentre en un estado particular i, de un conjunto finito de estados posibles, en el tiempo t+1 sólo depende del estado de la cadena en el tiempo t.

¿Es un AR(1) sin memoria? Cuando se escribe en la forma siguiente, puede parecer razonable suponer que un modelo AR(1) tampoco tiene memoria en la misma medida que una cadena de Markov de orden 1, porque sólo depende de su único retardo anterior.

$$x_t=a+bx_{t-1}+\epsilon_t \quad \text{ and assume }|b|<1.$$

Sin embargo, cuando $|b|<1$ se mantiene y escribimos el modelo AR(1) en MA( $\infty$ ), terminamos con $x_t$ en función de las innovaciones que se remontan a un pasado infinito. Ahora parece que el modelo AR(1) tiene memoria "infinita" de todas las innovaciones que se remontan infinitamente en el pasado, aunque en función de las innovaciones y no de los propios valores pasados.

¿Qué es exactamente la propiedad sin memoria? ¿Es AR(1) sin memoria o de memoria "infinita"?

1 votos

La condición crucial aquí es el estado dada la condición en el momento $t$ . El MA( $\infty$ ) la representación no excluye la falta de memoria.

3voto

Martin Robins Puntos 1893

En su pregunta, ha pasado de condicionar a los valores anteriores del proceso $x_t$ al condicionamiento de los valores previos de los choques $\epsilon_t$ . Son diferentes. El proceso AR(1) $y_t = b y_{t-1} + \epsilon_t$ satisface el Propiedad de Markov mientras que el proceso MA(1) $y_t = -c \epsilon_{t-1} + \epsilon_{t} $ no lo hace.

La propiedad de Markov dice básicamente que el futuro es independiente del pasado dado el valor presente del proceso $y_{t}$ .

En el caso de AR(1), el estado actual $y_{t}$ puede escribirse como una suma infinita de choques previos: $y_{t} = \sum_{j=0}^\infty b^j \epsilon_{t-j}$ . Conociendo la historia $\epsilon_t, \epsilon_{t-1}, \epsilon_{t-2}, \ldots$ básicamente te dice lo que $y_{t}$ es. Un AR(1) es Markov, así que lo único que importa para la distribución futura es el estado actual. El hecho de que puedas escribir cómo hemos llegado al estado actual en términos de choques previos no implica que el proceso no sea Markov.

En cuanto a su pregunta sobre un MA(1)

Supongamos que tenemos el proceso MA(1) $y_t = -c \epsilon_{t-1} + \epsilon_t$ . Dejemos que $L$ denotan el operador de retardo. $$ y_t = (1 - cL) \epsilon_t $$

Suponiendo que $|c| < 1$ y el proceso es invertible podemos escribir: $$ (1 - cL)^{-1} y_t = \epsilon_t$$ Como se ha comentado en esta respuesta esto resulta ser: $$ (1 + cL + (cL)^2 + (cL)^3 + \ldots ) y_t = \epsilon_t $$ Por lo tanto:

$$ y_t = -\sum_{j=1}^\infty c^j y_{t-j} + \epsilon_t$$

El MA(1) puede escribirse como un AR( $\infty$ ). Puedes ver que este proceso no es Markov (depende de una historia infinita de estados pasados).

0 votos

Gracias, esto es útil. En tu respuesta, afirmas que el proceso MA(1) no satisface la propiedad de Markov. ¿No se podría pensar en MA(1) como una cadena de Markov de orden cero?

0 votos

@ColorStatistics No. Sería un proceso autorregresivo de orden infinito.

1 votos

@ColorStatistics Algo que originalmente encontré un poco complicado en el contexto de MA(1) es que en el tiempo $t$ No sabes exactamente $\epsilon_t$ . Escribirlo en términos de observables: $\epsilon_t = \sum_{j=0}^\infty c^j y_{t-j}$ . En la práctica, $c^j$ se hace pequeño bastante rápido, pero en un sentido técnico, $\epsilon_t$ depende de una historia infinita.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X