2 votos

Demostrar que un proceso es gaussiano

Necesito una ayuda con el siguiente ejercicio. Me gustaría saber si lo que he hecho es correcto.

Dejemos que $(X_t)_{t\geq 0}$ sea el proceso definido como $$X_t=e^{\lambda t} X_0-\sigma \Big(\lambda \int_0^t e^{-\lambda(t-s)} \,W_s ds +W_t\Big),$$ donde $(W_t)$ es el proceso de Wiener, $\sigma, \lambda$ son constantes positivas y $X_0\sim N(\mu,\gamma^2)$ es independiente de $(W_t)$ .

Queremos demostrar que es un proceso gaussiano, es decir, que todas las distribuciones marginales son medidas gaussianas.

Consideremos ahora un marginal unidimensional, $\mu_t$ para un fijo $t\geq 0$ que se define como $\mu_t(I)=\mathbb P(X_t\in I) \quad \forall I\in \mathcal B(\mathbb R)$ : queremos demostrar que es gaussiano.

Así que escribamos la integral en la definición de $X_t$ de la siguiente manera: $$\int_0^t e^{-\lambda(t-s)} \,W_s ds=\int_0^t W_s\, df(s),$$ donde $f(s)=\frac{1}{\lambda}e^{-\lambda(t-s)}$ y la última integral es la integral de Stieltjes. Tenemos que, integrando por partes, $$\int_0^t W_s\, df(s)=W_t-\int_0^t f(s) dW_s=W_t-\frac{1}{\lambda}\int_0^t e^{-\lambda(t-s)} dW_s.$$

Denota con $\Pi=\{0=t_0>t_1<\dots<t_n=t\}$ cualquier partición del intervalo $[0,t]$ y que $|\Pi|=\max |t_{i+1}-t_i|$ . Entonces $$\int_0^t e^{-\lambda(t-s)} dW_s:=\lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} f(t_k)(W_{t_{k+1}}-W_{t_{k}}).$$

Así, $$X_t=e^{\lambda t} X_0-\sigma \Big((\lambda+1)W_t- \int_0^t e^{-\lambda(t-s)} dW_s\Big)= \\ \qquad \,=e^{\lambda t} X_0-\sigma \lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} (\lambda+1+f(t_k))(W_{t_{k+1}}-W_{t_{k}}).$$

Ahora, utilizando el hecho de que los incrementos del proceso de Wiener son independientes, se puede demostrar que $$ \lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} (\lambda+1+f(t_k))(W_{t_{k+1}}-W_{t_{k}})\sim N\Big(0,\int_0^t (\lambda+1+f(s))^2 ds \Big).$$

Así que $X_t$ es gaussiano y entonces $\mu_t$ es una medida gaussiana. ¿Es correcto hasta ahora?

Ahora, mi problema es: ¿cómo puedo demostrar que también el $n$ -¿las distribuciones marginales de las dimensiones son gaussianas? Si sé que $(X_t)_t$ son independientes, entonces hemos terminado. ¿Pero son independientes?

1voto

ki3i Puntos 3824

Como has observado**, Integración por partes justifica

$$ X_t = e^{\lambda t} X_0-\sigma \Big(W_t-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s +W_t\Big) = e^{\lambda t} X_0-\sigma \Big(2W_t-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s\Big) = e^{\lambda t} X_0-\sigma \Big(2\int\limits_{0}^{t}\mathrm dW_s-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s\Big) = e^{\lambda t} X_0-\sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big). $$

Ahora, $X_0$ es independiente de $(W_t)_{t\geqslant 0}$ . Por lo tanto, $e^{\lambda t} X_0$ es independiente de $\sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big)$ . Además, sus respectivas distribuciones son gaussianas univariantes:

$$ e^{\lambda t} X_0\sim\mathcal{N}\left(\mu e^{\lambda t}, \gamma^2e^{2\lambda t}\right),\\\sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big)\sim\mathcal{N}\left(0 , \sigma^2\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)^2\mathrm ds\right). $$

Como gaussianas univariantes independientes, cualquier combinación lineal de éstas es también gaussiana univariante. Esto significa inmediatamente que $X_t$ es la gaussiana univariante dada por su diferencia.

Esto también tiene implicaciones para las distribuciones de dimensión finita del $(X_t)_{t\geqslant 0}$ proceso. Considere cualquier colección finita de tiempos distintos $0< t_1 < \ldots < t_n$ y números reales arbitrarios $\alpha_1, \ldots, \alpha_n$ . Tenemos:

$$ \alpha_1 X_{t_1} + \ldots + \alpha_n X_{t_n} = X_{0}\sum\limits_{i = 1}^{n}\alpha_ie^{\lambda t_i} - \\\sigma\Bigg(\int\limits_{0}^{t_1}\sum\limits_{i=1}^{n}\alpha_if(t_i , s)\mathrm dW_s + \int\limits_{t_1}^{t_2}\sum\limits_{i=2}^{n}\alpha_if(t_i , s)\mathrm dW_s + \ldots + \int\limits_{t_{n-1}}^{t_n}\alpha_nf(t_n , s)\mathrm dW_s\Bigg) $$ donde, por conveniencia notacional, utilizamos $f(t_i,s) := 2-e^{-\lambda(t_i-s) }$ .

Fíjate bien: cada término $\int\limits_{t_j}^{t_{j-1}}\sum\limits_{i=j}^{n}\alpha_if(t_i , s)\mathrm dW_s$ arriba es una gaussiana univariante independiente de los otros términos similares y $X_0$ . En consecuencia, $\alpha_1 X_{t_1} + \ldots + \alpha_n X_{t_n}$ es una gaussiana univariante, ya que es una combinación lineal de gaussianas univariantes independientes. Así, cada distribución de dimensión finita $\left(X_{t_1} \ldots, X_{t_n}\right)$ es gaussiano multivariado, por definición . Hemos terminado.

** p.d. Creo que tienes un " $\lambda$ "en su término final de varianza gaussiana que no debería estar ahí, ya que anteriormente en su argumento pretendía utilizar $$\mathrm d\left(e^{-\lambda(t-s)}\right) = \lambda e^{-\lambda(t-s)}\mathrm ds.$$ Además, hay un " $+$ " en su término final de varianza gaussiana que debería ser un " $-$ ".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X