5 votos

Cómo entender el Manual de DOA

Puedo generar un AR(1) el proceso de la siguiente manera:

x=arima.sim(list(order = c(1,0,0),ar=0.67),n=1000,sd=sqrt(0.55))

Cuando me la plaza, y ajuste AR(1) para el cuadrado de proceso, todavía parece ser equipadas bien con AR(1) modelo:

y=x^2
fit=ar(y,order.max=1, method="ols")
acf(fit$resid[2:1000])
Box.test(fit$resid,lag=round(log(length(y))),type="Ljung-Box",fitdf=1)$p.value

enter image description here

El ACF trama del modelo (por el cuadrado de proceso) de los residuos y la gran residual de prueba valor p (mayor que .05) muestran que los residuos se encuentran de forma independiente distribuido. ¿Qué nos indica esto?

En una simulación de series de tiempo $x$ $y$ son de la siguiente manera:

enter image description here

2voto

auselen Puntos 121

Rápido y sucio - mis pensamientos sobre esto. Esto podría dar algo para ir, aunque no sé yo si es útil. Todos los supuestos de costumbre

$$x_i=\rho x_{i-1} + \epsilon_t \\ y_i=x^2\\ y_i=(\rho x_{i-1} + \epsilon_t)^2\\ y_i=\rho^2 x_{i-1}^2 + 2\rho x_{i-1} \epsilon_t + \epsilon_t ^ 2\\ y_i=\rho^2 x_{i-1}^2 + 2\rho x_{i-1} \epsilon_t + \delta\\ E[\delta] = E[\epsilon_t^2] = \sigma^2 $$

Bueno por lo que luego de llegar para algunos estimador que uncorrectly suponiendo AR(1) sin incluir el cuadrática cosa

$$y_i^*=\phi^*y_{i-1}\\ \delta^* = y_i-y_i^*\\ E[\delta^*]=E[ y_i-y_i^*]=E[\phi x_{i-1}^2 + 2\rho x_{i-1} \epsilon_t + \delta \phi^*y_{i-1}]\\ = (\phi-E[\phi^*]) y_{i-1} + \sigma^2 $$

Así, suponiendo que el estimador es de alguna manera imparcial tenemos $E[\delta^*] = \sigma^2$

$$Cov[\delta^*_t, \delta^*_{t-1}] = E[(\delta^*_t-E[\delta^*_t])(\delta^*_{t-1}-E[\delta^*_{t-1}])]\\ = E[(\delta^*_t-\sigma^2)(\delta^*_{t-1}-\sigma^2)] \\ = E[\delta^*_t \delta^*_{t-1} - \sigma^2 \delta^*_{t-1} - \sigma^2 \delta^*_{t} + \sigma^4]\\ = E[\delta^*_t \delta^*_{t-1}] = \sigma^4$$

Puedo ver de dónde viene, pero tal vez es demasiado pequeño de un número? 0,55^4 es de alrededor de 0,09. ¿Cuál es el resultado de una mucho más grande simulado desviación estándar?

Tal vez esto también se rompe debido a que el estimador no es más imparcial. Voy a seguir este por la sesgada caso más tarde, pero tal vez usted puede ir con esto y comprobar mis pensamientos es probable que exista algún tipo de error en allí.

2voto

Ankur Loriya Puntos 160

Me gusta la pregunta. Creo que he convencido a mí misma de por qué usted está viendo esto, pero puede ser una ilusión.

La acf de los residuos muestra que los residuos tienen una baja autocorrelaciones en los rezagos 1 y superiores. Esto no significa que son independientes. Creo que puedo ver por qué estas autocorrelaciones son propensos a ser pequeño. Usted puede escribir el proceso original como $$x_i = \alpha x_i + \varepsilon_i$$ el cuadrado da $$x_i^2 = \alpha^2 x_i + 2\alpha \varepsilon_i x_i + \varepsilon_i^2$$ Suponiendo que la ar() la función que da el justo valor de $\alpha^2$, los residuos se $$r_i = 2\alpha\varepsilon_i x_i + \varepsilon_i^2$$ pero $x_i = \sum_{k=0}^\infty \alpha^k \varepsilon_{i-k}$ debido a que este es un AR(1) el proceso, por lo $$r_i = 2\alpha \varepsilon_i^2 + 2\alpha^2 \varepsilon_{i-1} \varepsilon_i + 2\alpha^3 \varepsilon_{i-2}\varepsilon_i + \cdots + \varepsilon_i^2$$ Ahora mira en el gal 1 (que es similar para mayor gal). Si tratamos de calcular la covarianza de $r_i$ $r_{i-1}$ y el uso de la linealidad de la covarianza, terminamos con posiblemente distinto de cero en términos de la forma $$cov(\varepsilon_{i-1}^2, \varepsilon_i \varepsilon_{i-1})$$ and $$cov(\varepsilon_{i-1} \varepsilon_j, \varepsilon_{i} \varepsilon_j)$$ with other terms dropping out due to independence. But both of these are likely to be small (as can be checked by simulation) because if you imagine plotting $\varepsilon_{i-1}^2$ versus $\varepsilon_{i-1}$ you will get a parabola, and multiplying the points by an independent random amount in the y-direction will give you something which is likely to have a roughly horizontal line of best fit, hence small correlation, hence the covariance should be close to zero. Similarly, plotting $\varepsilon_{j}$ versus $\varepsilon_{j}$ y, a continuación, multiplicando todos los puntos independientes al azar cantidades en la x y la y-las direcciones dará algo que se parece mucho a una dispersión aleatoria de puntos, por lo que la segunda covarianza debe ser pequeño. De nuevo, se puede comprobar a través de la simulación.

Aviso de que esta explicación indica que usted debe ver el mismo comportamiento independientemente del valor de sd, que de hecho parece ser el caso (lo he probado con sd=1 y sd=5).

No creo que la misma explicación que trabaja para exponencial de ruido blanco. He intentado hacerlo con exponencial de ruido blanco y, a veces, el software se adapta y AR(1), a veces un AR(4).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X