5 votos

Continuidad de la distribución de un proceso AR(1)

Sea $\epsilon_n$ sean variables aleatorias i.i.d. con media $0$ y varianza positiva finita.

Sea $X=\sum_{k=0}^\infty \rho^k \epsilon_k$ donde $0<|\rho|<1$ . La serie converge a.s. por el criterio de la varianza.

Mi pregunta es: se puede probar o refutar la afirmación $P(X=x)=0$ ( $X$ tiene una distribución continua)?

Observación 1: La motivación proviene de la comprensión de la propiedad de distribución de la solución estacionaria de la ecuación AR(1): $X_n=\rho X_{n-1}+\epsilon_n$ que tiene la misma distribución que $X$ arriba.

Observación 2: Si $\epsilon_n$ tiene una distribución continua, entonces la afirmación puede demostrarse de la siguiente manera: obsérvese que $X$ tiene la misma distribución que $\rho X+\epsilon$ donde $\epsilon$ es independiente de $X$ y tiene la misma distribución que $\epsilon_n$ . Luego por independencia (desintegración), $$ P(X=x)=P(\rho X+\epsilon=x)=\int P(\epsilon=x-\rho u)~ dP_X(u)=0. $$ donde $P_X$ es la distribución de $X$ .

Observación 3: Un ejemplo positivo de la afirmación cuando $\epsilon_n$ es discreto: si $P(\epsilon_n=\pm 1)=1/2$ , $\rho=1/2$ es bien sabido que $X$ está uniformemente distribuida en [-2,2].

2voto

zhoraster Puntos 5893

Su conjetura es correcta. De hecho, un resultado más general es cierto: la distribución es pura (ya sea absolutamente continua o singularmente continua con respecto a la medida de Lebesgue). Puede obtener más información en el libro Modelos estocásticos con colas de ley de potencia: La ecuación $X = AX + B$ de Buraczewski, Damek y Mikosch; he aquí una modificación de la prueba de la proposición 2.5.2 que figura en él para su situación.

Sea $(\epsilon_k,k\ge 0)$ sea iid con distribución no degenerada y $\mathrm E[\log (|\epsilon_0|+1)]<\infty$ . Entonces para cualquier $\rho\in(0,1)$ la serie $X = \sum_{k=0}^\infty \rho^k \epsilon_k$ converge casi con seguridad, y su distribución no tiene átomos, por ejemplo, para cualquier $x\in\mathbb{R}$ , $\mathrm P(X=x) = 0$ .

Me saltaré la parte de la convergencia, yendo directamente a la falta de átomos.

Por contradicción, supongamos que para algún $x\in \mathbb{R}$ , $\mathrm P(X=x) > 0$ . Claramente, el valor máximo $p^* = \max_{x\in \mathbb{R}}\mathrm P(X=x)$ se alcanza en un número finito de puntos, digamos, en el conjunto $S$ . Observe que $$X = \rho X' + \epsilon_0,$$ donde $X' \overset{d}{=} X$ es independiente de $\epsilon_0$ . De ello se deduce que la distribución $\epsilon_0$ también tiene un átomo, digamos, en un punto $a\in \mathbb R$ (de lo contrario, la distribución de $X$ sería continua, como se explica en la Observación 2). Además, para cada $x\in S$ , $$ p^* = \mathrm P(X=x) = \int_{\mathbb{R}}\mathrm P\big(X=\rho^{-1}(x-y)\big)dF_{\epsilon_0}(y)\overset{*}{\le} \int_{\mathbb{R}}p^* dF_{\epsilon_0}(y)=p^*, $$ por lo que la desigualdad * debe ser e igualdad, de donde $\mathrm P\big(X=\rho^{-1}(x-y)\big)=p^*$ para casi todos los $y$ modulo la distribución de $\epsilon_0$ . En otras palabras, para cualquier $x\in S$ , $\rho^{-1}(x-\epsilon_0)\in S$ casi seguro, en particular, $\rho^{-1}(x-a)\in S$ . Denotemos $x_*=\min S, x^* = \max S$ y observe que $\rho^{-1}(x_*-a)\in S$ , $\rho^{-1}(x^*-a)\in S$ y $\rho^{-1}(x^*-a) - \rho^{-1}(x_*-a) = \rho^{-1}(x^*-x_*)$ . Desde $\rho^{-1}>1$ debemos tener $x_*=x^*$ Así que $S = \{x_*\}$ . Pero entonces $\rho^{-1}(x_* - \epsilon_0) = x_*$ casi seguro, así que $\epsilon_0 = x_*(\rho - 1)$ casi con seguridad, contradiciendo el supuesto de no-degeneración.

0 votos

Respuesta muy clara. Muchas gracias.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X