23 votos

Variación cuadrática del movimiento Browniano y convergencia casi segura

Diga eso. $W(t)$ es un movimiento Browniano. La variación cuadrática $[W,W](t)$ se define en términos de una partición $ \Pi = \{0 = t_0 < t_1 < \cdots < t_n = t\}$ por
$$ \begin {split} [W,W](t) &= \lim_ {| \Pi | \to 0} \sum_ {j=0}^{n-1} \Big ( W(t_{j+1}) - W(t_j) \Big )^2 \\ &= \lim_ {| \Pi | \to 0} Q_n \end {split} $$

Aquí $| \Pi | \to 0$ significa que $ \displaystyle\mathop { \text {max}}_{0 \leq j<n} (t_{j+1} - t_j) \to 0$ .

Se puede argumentar que $[W,W](t) = t$ observando que el valor y la varianza esperados de la $j$ Las órdenes son $t_{j+1} - t_j$ y $2(t_{j+1} - t_j)^2$ respectivamente, de modo que $E[Q_n] = t$ . Se argumenta que $Var[Q_n]$ es proporcional a la longitud máxima de la partición, y así se desvanece en el límite. La variación cuadrática converge así en el cuadrado medio a $t$ : $$ \lim_ {| \Pi | \to 0} E[(Q_n - t)^2] = 0. $$

1) ¿Qué argumentos adicionales, de haberlos, se necesitan para localizar una subsecuente de $\{Q_n\}$ para que la convergencia sea casi segura?

2) ¿Cómo se verifica que la definición de la variación cuadrática es independiente de la elección de la partición $ \Pi $ ?

0 votos

No es necesario que converja de forma casi segura, aunque siempre habrá una subsecuencia que converja de forma casi segura, y siempre se obtiene una convergencia casi segura con particiones anidadas del movimiento browniano. Además, acabas de demostrar que converge a $t$ independientemente de la partición, así que no estoy seguro de cuál es la pregunta.

0 votos

El resultado casi seguro mencionado por George es la Proposición (2.12) (página 62) de Martingalas continuas y movimiento browniano (1ª edición) de Daniel Revuz y Marc Yor.

5 votos

Hola, Los problemas surgen cuando se toma la Variación Cuadrática usando el sup sobre todas las particiones y no sólo las refinadas (o anidadas). Entonces no tienes CV a.s. sino sólo CV en probabilidad. Se puede hacer una construcción explícita de particiones para las que no se consigue una convergencia casi segura. Hay una construcción de este tipo en un libro de Peres y Mörters (disponible en stat.berkeley.edu/~peres/bmbook.pdf) Ejercicio 1.13. Saludos

7voto

Conrado Costa Puntos 3600

Me gustaría comentar su segunda pregunta. La independencia de $\langle M,M\rangle_T$ ( $[W,W](T)$ ) de la partición elegida.

Veamos los pasos fundamentales desde el principio :

  1. Dejemos que $M$ sea una martingala

  2. considere una secuencia $\Pi_n = \{t^n_0 ,\ldots, t^n_{p_n}\}$ de particiones anidadas de $[0,T]$ ( $\Pi_{n} \subset \Pi_{n+1}$ ) tal que $\big\vert \Pi_n \big\vert \underset{n \to \infty}{\longrightarrow} 0$

  3. definir $$X^n_t : = \sum_{i = 1}^{p_n} M_{t^n_{i-1}} (M_{t^n_{i-1}\wedge t} - M_{t^n_{i-1}\wedge t})$$

    Tenga en cuenta que $X^n_t$ es una martingala $(\mathbb{E} [X^n_t \vert \mathcal{F}_s] = X^n_s)$ .

    Tenga en cuenta también que $M^n_T - X^n_T = \sum_{i=1}^{p_n} (M_{t^n_i} - M_{t^n_{i-1}})^2$ (Puede tardar un poco)

  4. Demostrar que $\lim_{n,m \to \infty}{(X^n_T - X^m_T)^2} = 0$ (Es un poco difícil)

  5. Utiliza Doob's $L^2$ desigualdad y 4 (arriba) $$\lim_{n,m \to \infty}\mathbb{E}[{\sup_{t \leq T}(X^n_t - X^m_t)^2}] \leq 4 \mathbb{E}[{\sup_{t \leq T}(X^n_T - X^m_T)^2}] \underset{n,m \to \infty}{\longrightarrow} 0$$

  6. Hay una subsecuencia $X^{n_k}$ de tal manera que

$$\mathbb{E}[{\sup_{t \leq T}(X^{n_k}_T - X^{n_{k+1}}_T)^2}] < 2^{-k} $$

  1. Considere los eventos $A_k = \{\omega: \sup_{t \leq T} \vert{X^{n_k}_t - X^{n_{k+1}}_t}\vert > \frac{1}{k^2}\}$

    Obsérvese (por la desigualdad de Chebyshev) que $\mathbb{P} (A_k) \leq k^4 2^{-k}$

    Tenga en cuenta que $\sum_k k^4 2^{-k} < \infty$

  2. Ahora utilice el lema de Borel cantelli para obtener que $\mathbb{P}(A_k i.o) = 0$ (el evento $\{A_k i.o.\}$ es el evento $\{\omega : \;\{k:\omega \in A_k\}$ es un conjunto infinito $\}$ .

  3. Ahora hay un conjunto de medidas completo $\Omega^*$ ( $\mathbb{P} (\Omega^*) = 1$ ) tal que $\omega \in \Omega^* \Rightarrow \exists \;K_0(\omega) $ , $k > K_0(\omega) \Rightarrow \sup_{t \leq T} \vert{X^{n_k}_t - X^{n_{k+1}}_t}\vert < \frac{1}{k^2}$ por lo tanto $ X^{n_k}_t$ converge uniformemente (a una función continua digamos $Y_t(\omega)$ en el intervalo $[0,T]$ )

  4. nota que $Y_t$ es el $L^2$ límite de $X^{n}$ esto implica que $Y_t$ también es una martingala

  5. Nota $$M^n_{t^n_j} - X^n_{t^n_j} = \sum_{i=1}^{j} (M_{t^n_i} - M_{t^n_{i-1}})^2$$ Por lo tanto, concluye que $M^n_t - Y_t = A_t$ es un proceso continuo creciente (casi seguro) y como $M^n_{T} - X^n_{T} = Q_n$ (en su notación) obtenemos que $\mathbb{E}[(Q_n - A_T)^2] = \mathbb{E}[(X^n_T - Y_T)^2] \to 0$

  6. Pasando al punto principal, ¿qué pasaría si hubieras elegido una secuencia diferente de particiones? Entonces podrías obtener un proceso de aumento de límite diferente digamos $A'_t$ . Pero basta con observar que $A_t - A'_t = M_t - A'_t - (M_t - A_t)$ es una martingala de variación acotada y por lo tanto es indistinguible de 0 por lo tanto $\{A'_t = A_t$ para todos $t\}$ casi seguramente

Y concluyes que el límite es independiente de las particiones que hayas elegido.

Como referencia he utilizado el libro de Le Gall (Mouvement Brownien, Martingales Et Calcul Stochastique - está en francés).

5voto

AJW Puntos 61

Si el diámetro del $n$ -converge (a cero) lo suficientemente rápido, es decir, si es de orden inferior a $1/\log(n)$ entonces la variación cuadrática converge casi con seguridad. Si no, entonces no en general (para particiones no anidadas). Más concretamente, Wrobel (1982) demuestra que existe una secuencia de particiones con diámetros de orden inferior a $1/\log(n)$ elevado al poder $\alpha$ para cada positivo $\alpha$ menos de $1$ , tal que la variación del cuadrado browniano diverge casi con seguridad.

Para este resultado y otros relacionados, véase también Stoyanov (2013, Sec. 24.8).

Stoyanov, J.M. (2013, 3ª edición): Counterexamples in probability. Nueva York: Dover Publ.

Wrobel, A. (1982): Sobre la convergencia casi segura de la variación cuadrada del movimiento browniano, Probabilidad y estadística matemática, 3, 97-101. PDF de http://www.math.uni.wroc.pl/~pms/publications.php?nr=3.1

3voto

mkamowski Puntos 329

1) Como su cantidad converge en $L^2$ converge en Probabilidad, por lo que una subsecuencia convergerá a.s. y no es necesario imponer ninguna otra condición.

2) El límite no depende de la partición, porque si eliges cualquier otra partición con malla que vaya a 0, seguirías teniendo convergencia en Probabilidad a un cierto límite (tu prueba funciona para cualquier tal partición) y por lo tanto todavía tiene una subsecuencia convergente a.s. Por lo tanto, los dos límites deben ser los mismos.

0voto

Xisheng Yu Puntos 1

No sé si es correcto:

{Q: [0, T] está espaciado por igual, como notación habitual: $\Delta B_i=B_{t_i}-B_{t_{i-1}}$ , $t_i-t_{i-1}=T/n$ . Mostrar $\sum_{i=1}^{n} \Delta B_i^2\stackrel{ c.c. } \longrightarrow T $ }

$Proof$ : para todos $\varepsilon$ ,

$\mathbb{P}\left(\{\omega\in \Omega:|\sum_{i=1}^{n} \Delta B_i^2-t|>\varepsilon\}\right)$

$\leq {\frac{E(\sum_{i=1}^{n}\Delta B_i^2-t)^4}{\varepsilon^4}}$ (por la desigualdad de Markov)

$=12T^4(1/n^2+4/n^4)=O(1/n^2)$ .

entonces $\sum \mathbb{P}\left(\{ \omega\in \Omega:|\sum_{i=1}^{n} \Delta B_i^2-T|>\varepsilon\}\right)$ es una serie convergente, que satisface la definición de c.c. (convergencia completa),

Así que $\sum_{i=1}^{n} \Delta B_i^2\stackrel{ c.c. } \longrightarrow T $ que también implica $a.s.$ (o por el lema de Borel-Cantelli).

¿Hay algún error? bienvenido sea alguien que lo señale.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X