7 votos

¿Qué es una serie temporal integrada?

En esta pregunta un comentarista dice que "diferenciar una serie que no está integrada es ciertamente problemático desde el punto de vista estadístico". ¿Qué es una serie temporal integrada y por qué es problemático diferenciar una serie que no está integrada?

3 votos

Supongo que la pregunta principal es, y el título debería ser, ¿Por qué es problemático diferenciar una serie que no está integrada? . Mientras tanto, ¿Qué es una serie temporal integrada? es realmente básico: integrado significa esencialmente que una serie tiene una raíz unitaria; véase por ejemplo aquí .

5voto

Christoph Hanck Puntos 4143

Considere la primera diferencia $\Delta u_t$ de un proceso lineal (una forma bastante general de afirmar que algo no tiene raíz unitaria). $u_t=\sum_{j=0}^\infty\psi_j\epsilon_{t-j}$ con $\psi_0=1$ y $\sum_{j=0}^\infty|\psi_j|<\infty$ es decir $$ \Delta u_t=\sum_{j=0}^\infty\psi_j\epsilon_{t-j}-\sum_{j=0}^\infty\psi_j\epsilon_{t-j-1} $$ La varianza a largo plazo de $\Delta u_t$ es cero, por lo que un proceso estacionario no debería diferenciarse "demasiado" a menudo, ya que la varianza estimada a largo plazo, por ejemplo, entra en el denominador de los cocientes t, y tener una cantidad de población que es cero no debería estar en un denominador.

Encontramos el $MA$ secuencia de coeficientes de $\Delta u_t$ Llámalo $d(L)$ . A continuación demostramos que $d(1)^2=0$ .

Escriba a $$ \Delta u_t=\epsilon_t+\sum_{j=1}^\infty(\psi_j-\psi_{j-1})\epsilon_{t-j}\equiv\sum_{j=0}^\infty d_j\epsilon_{t-j} $$ con $d_0=\psi_0=1$ y $d_j=\psi_j-\psi_{j-1}$ . Por lo tanto $\sum_{j=0}^\infty d_j=1+\psi_1-\psi_{0}+\psi_2-\psi_{1}+\psi_3-\psi_{2}+\ldots=0$ .

La varianza a largo plazo puede escribirse como $J=\sigma^2(\sum_{j=0}^\infty d_j)^2$ . Por lo tanto, $J=0$ .

Esto se debe a que, en general, la varianza a largo plazo de un $MA(\infty)$ proceso $Y_t=\mu+\sum_{j=0}^\infty\psi_j\epsilon_{t-j}$ puede escribirse como $$ J=\sigma^2\biggl(\sum_{j=0}^\infty\psi_j\biggr)^2 $$ Toma $\sigma^2=1$ w.l.o.g. Escribiendo el lado derecho se obtiene \begin{eqnarray*} \biggl(\sum_{j=0}^\infty\psi_j\biggr)^2&=&\psi_0\psi_0+\psi_0\psi_1+\psi_0\psi_2+\psi_0\psi_3+\ldots\\ &&+\quad\psi_1\psi_0+\psi_1\psi_1+\psi_1\psi_2+\psi_1\psi_3+\ldots\\ &&+\quad\psi_2\psi_0+\psi_2\psi_1+\psi_2\psi_2+\psi_2\psi_3+\ldots\\ &&+\quad\psi_3\psi_0+\psi_3\psi_1+\psi_3\psi_2+\psi_3\psi_3+\ldots\\ &=&\ldots\\ &=&\sum_{j=0}^\infty\psi_j^2+2\sum_{j=0}^\infty\psi_j\psi_{j+1}+2\sum_{j=0}^\infty\psi_j\psi_{j+2}+2\sum_{j=0}^\infty\psi_j\psi_{j+3}+\ldots\\ &=&\gamma_0+2\gamma_1+2\gamma_2+2\gamma_3+\ldots\\ &=&J \end{eqnarray*} donde la penúltima línea utiliza expresiones para autocovarianzas de $MA(\infty)$ -procesos.

0 votos

No puede ser correcto que la varianza estacionaria $J$ de la serie diferenciada es cero. Creo que la última ecuación debería ser $J=\sigma^2 \sum_{j=0}^\infty (d_i^2)$ . Por lo tanto, $J$ está lejos de cero.

0 votos

He editado mi respuesta para añadir algunos detalles. No veo ningún error.

0 votos

Pero claramente, $J=\operatorname{Var}Y_t=\operatorname{Var}(\sum_{j=0}^\infty \psi_j \epsilon_{t-j})=\sum_{j=0}^\infty\operatorname{Var}( \psi_j \epsilon_{t-j})=\sum_{j=0}^\infty \psi_j^2\operatorname{Var}( \epsilon_{t-j})=\sigma^2\sum_{j=0}^\infty \psi_j^2$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X