Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

2 votos

Demostrar que un proceso es gaussiano

Necesito una ayuda con el siguiente ejercicio. Me gustaría saber si lo que he hecho es correcto.

Dejemos que (Xt)t0 sea el proceso definido como Xt=eλtX0σ(λt0eλ(ts)Wsds+Wt), donde (Wt) es el proceso de Wiener, σ,λ son constantes positivas y X0N(μ,γ2) es independiente de (Wt) .

Queremos demostrar que es un proceso gaussiano, es decir, que todas las distribuciones marginales son medidas gaussianas.

Consideremos ahora un marginal unidimensional, μt para un fijo t0 que se define como μt(I)=P(XtI)IB(R) : queremos demostrar que es gaussiano.

Así que escribamos la integral en la definición de Xt de la siguiente manera: t0eλ(ts)Wsds=t0Wsdf(s), donde f(s)=1λeλ(ts) y la última integral es la integral de Stieltjes. Tenemos que, integrando por partes, t0Wsdf(s)=Wtt0f(s)dWs=Wt1λt0eλ(ts)dWs.

Denota con Π={0=t0>t1<<tn=t} cualquier partición del intervalo [0,t] y que |Π|=max . Entonces \int_0^t e^{-\lambda(t-s)} dW_s:=\lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} f(t_k)(W_{t_{k+1}}-W_{t_{k}}).

Así, X_t=e^{\lambda t} X_0-\sigma \Big((\lambda+1)W_t- \int_0^t e^{-\lambda(t-s)} dW_s\Big)= \\ \qquad \,=e^{\lambda t} X_0-\sigma \lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} (\lambda+1+f(t_k))(W_{t_{k+1}}-W_{t_{k}}).

Ahora, utilizando el hecho de que los incrementos del proceso de Wiener son independientes, se puede demostrar que \lim_{|\Pi|\to 0} \sum_{k=0 }^{n-1} (\lambda+1+f(t_k))(W_{t_{k+1}}-W_{t_{k}})\sim N\Big(0,\int_0^t (\lambda+1+f(s))^2 ds \Big).

Así que X_t es gaussiano y entonces \mu_t es una medida gaussiana. ¿Es correcto hasta ahora?

Ahora, mi problema es: ¿cómo puedo demostrar que también el n -¿las distribuciones marginales de las dimensiones son gaussianas? Si sé que (X_t)_t son independientes, entonces hemos terminado. ¿Pero son independientes?

1voto

ki3i Puntos 3824

Como has observado**, Integración por partes justifica

X_t = e^{\lambda t} X_0-\sigma \Big(W_t-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s +W_t\Big) = e^{\lambda t} X_0-\sigma \Big(2W_t-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s\Big) = e^{\lambda t} X_0-\sigma \Big(2\int\limits_{0}^{t}\mathrm dW_s-\int\limits_{0}^{t} e^{-\lambda(t-s)}\mathrm dW_s\Big) = e^{\lambda t} X_0-\sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big).

Ahora, X_0 es independiente de (W_t)_{t\geqslant 0} . Por lo tanto, e^{\lambda t} X_0 es independiente de \sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big) . Además, sus respectivas distribuciones son gaussianas univariantes:

e^{\lambda t} X_0\sim\mathcal{N}\left(\mu e^{\lambda t}, \gamma^2e^{2\lambda t}\right),\\\sigma \Big(\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)\mathrm dW_s\Big)\sim\mathcal{N}\left(0 , \sigma^2\int\limits_{0}^{t}\left(2 - e^{-\lambda(t-s)}\right)^2\mathrm ds\right).

Como gaussianas univariantes independientes, cualquier combinación lineal de éstas es también gaussiana univariante. Esto significa inmediatamente que X_t es la gaussiana univariante dada por su diferencia.

Esto también tiene implicaciones para las distribuciones de dimensión finita del (X_t)_{t\geqslant 0} proceso. Considere cualquier colección finita de tiempos distintos 0< t_1 < \ldots < t_n y números reales arbitrarios \alpha_1, \ldots, \alpha_n . Tenemos:

\alpha_1 X_{t_1} + \ldots + \alpha_n X_{t_n} = X_{0}\sum\limits_{i = 1}^{n}\alpha_ie^{\lambda t_i} - \\\sigma\Bigg(\int\limits_{0}^{t_1}\sum\limits_{i=1}^{n}\alpha_if(t_i , s)\mathrm dW_s + \int\limits_{t_1}^{t_2}\sum\limits_{i=2}^{n}\alpha_if(t_i , s)\mathrm dW_s + \ldots + \int\limits_{t_{n-1}}^{t_n}\alpha_nf(t_n , s)\mathrm dW_s\Bigg) donde, por conveniencia notacional, utilizamos f(t_i,s) := 2-e^{-\lambda(t_i-s) } .

Fíjate bien: cada término \int\limits_{t_j}^{t_{j-1}}\sum\limits_{i=j}^{n}\alpha_if(t_i , s)\mathrm dW_s arriba es una gaussiana univariante independiente de los otros términos similares y X_0 . En consecuencia, \alpha_1 X_{t_1} + \ldots + \alpha_n X_{t_n} es una gaussiana univariante, ya que es una combinación lineal de gaussianas univariantes independientes. Así, cada distribución de dimensión finita \left(X_{t_1} \ldots, X_{t_n}\right) es gaussiano multivariado, por definición . Hemos terminado.

** p.d. Creo que tienes un " \lambda "en su término final de varianza gaussiana que no debería estar ahí, ya que anteriormente en su argumento pretendía utilizar \mathrm d\left(e^{-\lambda(t-s)}\right) = \lambda e^{-\lambda(t-s)}\mathrm ds. Además, hay un " + " en su término final de varianza gaussiana que debería ser un " - ".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X