3 votos

Independencia de los componentes de un movimiento browniano multidimensional

Dejemos que $B = (B^1, \dots, B^n)$ ser un $n$ -dimensional ( $n \in \{1, 2, \dots\}$ ) Movimiento browniano (es decir $B = (B_t)_{t \geq 0} \in \Omega \rightarrow (\mathbb{R}^n)^{[0,\infty)}$ tiene trayectorias continuas, $B_0 = 0$ casi seguro, $B$ tiene incrementos independientes, y, para cada $s, t \geq 0$ avec $s < t$ , $B_t - B_s \sim N(0, (t - s) E_n)$ , donde $E_n$ es la matriz de identidad en $\mathbb{R}_{n, n}$ ) adaptado a la filtración $\mathfrak{F}$ (que no es necesariamente la filtración natural). ¿Es el caso de que los componentes $B^k$ son independientes?


EDITAR

He escrito todos mis pensamientos sobre el tema en mi respuesta más abajo.

4voto

Evan Aad Puntos 2471

La siguiente respuesta se basa en la demostración del teorema 7.8 ("Movimiento browniano multidimensional") en el libro de texto de Jochen Wengenroth "Wahrscheinlichkeitstheorie" (de Gruyter, 2008), p. 136.

Demostraremos, por ejemplo, que $B^1 = (B^1_t)_{t \geq 0}$ y $C := (B^2_t, \dots, B^n_t)_{t \geq 0}$ ( $B^1$ es un proceso estocástico unidimensional y $C$ es un $n - 1$ -proceso estocástico de dimensión) son independientes. Si $\mathfrak{b}$ es un $\pi$ -sistema que genera $\sigma(B^1_t :\mid t \geq 0)$ y si $\mathfrak{c}$ es un $\pi$ -sistema que genera $\sigma(C_t :\mid t \geq 0)$ basta con demostrar que $\mathfrak{b}$ y $\mathfrak{c}$ son independientes. Denotemos por $\mathcal{P}_0$ la colección de todos los subconjuntos finitos no vacíos de $[0, \infty)$ . Entonces $\bigcup\{\sigma(B^1_J) = \sigma(B^1_{j_0}, \dots, B^1_{j_m}) :\mid J = \{j_0, \dots, j_m\} \in \mathcal{P}_0\}$ es un $\pi$ -sistema que genera $\sigma(B^1)$ y $\bigcup\{\sigma(C_J) = \sigma(C_{j_0}, \dots, C_{j_m}) :\mid J = \{j_0, \dots, j_m\} \in \mathcal{P}_0\}$ es un $\pi$ -sistema que genera $\sigma(C)$ .

Dejemos entonces que $J, J' \in \mathcal{P}_0$ . Demostraremos que $\sigma(B^1_J)$ y $\sigma(C_{J'})$ son independientes o, lo que es lo mismo, que $B^1_J$ y $[C_{J'}]$ son independientes, donde la notación $[v_0, \dots, v_k]$ denota el vector obtenido al concatenar los componentes de los vectores individuales $v_0, \dots, v_k$ . Definir $I := J \cup J'$ . Entonces basta con demostrar que $B^1_I$ y $[C_I]$ son independientes.

Escriba $I = \{i_0 < \dots < i_m\}$ y denotar por $\beta$ el $(m+1)n$ vector $[B_{i_0}, B_{i_1} - B_{i_0}, \dots, B_{i_m} - B_{i_{m - 1}}]$ . $\beta$ es normal multivariante, ya que, debido a que $B$ tiene incrementos independientes, cualquier combinación lineal de $\beta$ es una variable aleatoria normal unidimensional. Dado que $\beta$ no están correlacionados, son independientes. Por lo tanto, $\alpha := (B^1_{i_0}, B^1_{i_1} - B^1_{i_0}, \dots, B^1_{i_m} - B^1_{i_{m - 1}})$ y $\gamma := [C_{i_0}, C_{i_1} - C_{i_0}, \dots, C_{i_m} - C_{i_{m - 1}}]$ son independientes. Dado que $B^1_I$ es una transformación lineal de $\alpha$ y $[C_I]$ es una transformación lineal de $\gamma$ , $B^1_I$ y $[C_I]$ son independientes, Q.E.D.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X