2 votos

Demostrar que $W$ es un proceso gaussiano

Tengo el siguiente problema: quiero demostrar que el vector $(W(1_{[t_0,t_1]}),...,W(1_{[t_{n-1},t_n]}))$ se distribuye normalmente con la media $0$ y la matriz de covarianza $\Sigma=diag(t_1-t_0,...,t_n-t_{n-1})$ , donde $W(f):=\sum_{i\geq1}{\langle f,e_i\rangle Y_i}$ y $(e_i)_{i\geq1}$ es un ONB de $L^2[0,1]$ y $(Y_i)_{i\geq1}$ una Secuencia I.i.d. de variables aleatorias centradas con varianza $1$ .

He intentado utilizar las funciones características pero he llegado a un punto en el que no puedo concluir nada.

Dejemos que $X^m:=(\sum_{i=1}^m{\langle 1_{[t_0,t_1]},e_i\rangle Y_i},...,\sum_{i=1}^m{\langle 1_{[t_{n-1},t_n]},e_i\rangle Y_i})$ así que

\begin {align*} \Phi_ {X^m} &= \mathbb {E}[ \exp (i \langle s,X^m \rangle )] \\ &= \mathbb {E}[ \exp (i \sum_ {k=1}^mY_k \sum_ {j=1}^n \langle 1_{[t_{j-1},t_j]},e_k \rangle s_j)] \\ &= \prod_ {k=1}^m \mathbb {E}[ \exp (iY_k \sum_ {j=1}^n \langle 1_{[t_{j-1},t_j]},e_k \rangle s_j)] \\ &= \exp \left (- \frac {1}{2} \left [ \sum_ {j=1}^n \langle 1_{[t_{j-1},t_j]},e_1 \rangle s_j \right ]^2 \right ) \cdots \exp \left ( - \frac {1}{2} \left [ \sum_ {j=1}^n \langle 1_{[t_{j-1},t_j]},e_m \rangle s_j \right ]^2 \right ) \end {align*}

Pero ahora no tengo ni idea de cómo concluir.. Y también estoy pensando que este no es el buen camino...

2voto

user36150 Puntos 8

Establecer

$$f_n(s) := \sum_{j=1}^n s_j 1_{[t_{j-1},t_j]}(s).$$

Entonces su cálculo muestra

$$\Phi_{X^m}(s) = \exp \left(- \frac{1}{2} \sum_{k=1}^m \langle f_n, e_k \rangle^2 \right).$$

Dejar $m \to \infty$ obtenemos

$$\Phi_X(s) = \exp \left(- \frac{1}{2} \sum_{k \geq 1} \langle f_n, e_k \rangle^2 \right). \tag{1}$$

Desde $(e_k)_{k \geq 1}$ es un ONB, tenemos

$$\sum_{k \geq 1} \langle f_n, e_k \rangle^2 = \|f_n\|^2$$

por la desigualdad de Parseval. Combinando

$$\|f_n\|^2 = \int_0^1 f_n(s)^2 \, ds = \sum_{j=1}^n s_j^2 (t_j-t_{j-1})$$

con $(1)$ produce

$$\Phi_X(s) = \exp \left(- \frac{1}{2} \sum_{j=1}^n s_j^2 (t_j-t_{j-1}) \right)$$

para todos $s \in \mathbb{R}^n$ . Esto demuestra que $X=(W(1_{[t_0,t_1]}),\ldots,W(1_{[t_{n-1},t_n]}))$ es gaussiano con vector de media $0$ y la matriz de covarianza $\text{diag}(t_1-t_0,\ldots,t_n-t_{n-1})$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X