12 votos

Trayectoria de muestra del movimiento browniano dentro de la distancia épsilon de la función continua

Dada una función continua $f:[0,1]\rightarrow\mathbb{R}$ , $f(0)=0$ ¿Cómo se puede demostrar que $P(\underset{0\leq t\leq1}{\sup}\left|B_{t}-f(t)\right|<\varepsilon)>0$ , donde $P$ es la medida de probabilidad bajo la cual $(B_{t})_{t\geq0}$ es un movimiento browniano estándar.

Cualquier ayuda será muy apreciada.

0 votos

Hola y bienvenido a Math.SX. Tu pregunta es interesante pero le falta algo de fondo (necesitamos saber lo que sabes para responderla). También deberías mostrar tus esfuerzos para responderla, lo que has intentado y no ha funcionado. Por favor, echa un vistazo a math.stackexchange.com/help/how-to-ask

3 votos

Por cierto, este hermoso resultado de Paul Lévy se llama a veces el Teorema de la falsificación .

0 votos

¿Supone usted que $f(0) = 0$ o se mantendrá durante al menos algunos $\varepsilon$ ? Por lo demás, no parece que sea cierto.

11voto

user36150 Puntos 8

Dejemos que $f: [0,1] \to \mathbb{R}$ sea una función continua. Dado que $[0,1]$ es compacto, $f$ es uniformemente continua en $[0,1]$ es decir, podemos elegir $n \in \mathbb{N}$ tal que

$$|f(s)-f(t)| < \frac{\varepsilon}{2} \quad \text{for all $ |s-t| \leq \frac{1}{n} $.}$$

Si ponemos $t_j := j/n$ para $j=0,\ldots,n$ entonces

$$\begin{align*} \mathbb{P} \left( \sup_{0 \leq t \leq 1} |B_t-f(t)| <\varepsilon\right) &\geq \mathbb{P}\left( \forall j=0,\ldots,n-1: \sup_{t \in [t_j,t_{j+1}]} |B_t-f(t_j)| < \frac{\varepsilon}{2 (n-j)} \right) \\ &= \mathbb{P}\left( \prod_{j=0}^{n-1} 1_{A_j} \right) \end{align*}$$

para

$$A_j := \left\{\sup_{t \in [t_j,t_{j+1}]} |B_t-f(t_j)| < \frac{\varepsilon}{2(n-j)} \right\} \in \mathcal{F}_{t_{j+1}}.$$

Se deduce de la propiedad de Markov (del movimiento browniano) y de la propiedad de la torre (de la expectativa condicional) que

$$\begin{align*} \mathbb{P}\left( \prod_{j=0}^{n-1} 1_{A_j} \right) &= \mathbb{P} \left[ \left(\prod_{j=0}^{n-2} 1_{A_j} \right) \mathbb{P}^{B_{t_{n-1}}} \left(\sup_{t \in [0,1/n]} |B_t-f(t_{n-1})| < \frac{\varepsilon}{2} \right) \right]. \end{align*}$$

Basta con demostrar que

$$\mathbb{P}^x \left( \sup_{t \in [0,1/n]} |B_t-f(t_{n-1})| < \frac{\varepsilon}{2} \right)>c>0 \tag{1}$$

para todos $x \in B(f(t_{n-1}),\varepsilon/4)$ . (Entonces podemos iterar el procedimiento y obtener la cota inferior deseada). Para ello, observamos que

$$\begin{align*} \mathbb{P}^x \left( \sup_{t \leq 1/n} |B_t-f(t_{n-1})| < \frac{\varepsilon}{2} \right) &= \mathbb{P} \left( \sup_{t \leq 1/n} |B_t+x-f(t_{n-1})| < \frac{\varepsilon}{2} \right) \\ &\geq \mathbb{P} \left( \sup_{t \leq 1/n} |B_t| < \frac{\varepsilon}{4} \right) \end{align*}$$

para todos $x \in B(f(t_{n-1}),\varepsilon/4)$ . Como $M_{1/n} := \sup_{t \leq 1/n} B_t \sim |B_{1/n}|$ (por el principio de reflexión), $(1)$ sigue.


Observación: La asintótica de la probabilidad $\mathbb{P} \left( \sup_{t \in [0,1]} |B_t-f(t)| < \varepsilon \right)$ como $\varepsilon \to 0$ es objeto de la llamada estimaciones de bolas pequeñas .

0 votos

@AreaMan He reescrito la prueba; espero que sea más clara ahora.

0 votos

Gracias. Creo que ahora está claro. Echaré otro vistazo por la mañana con ojos nuevos.

2 votos

(un año después) sigo siendo escéptico. En particular, he intentado resolver su iteración. Tomemos $f = 0$ para simplificar (de todos modos es el caso crucial porque el teorema de Girsanov nos da el resto). Entonces la última probabilidad que queremos calcular en la iteración es $P( sup_{ t \leq 1/n } |B_t| < \epsilon / 2n )$ . Intenté ligar esto con Doobs, pero me $2n E |B_{1/n} | / \epsilon = (2/ \epsilon) E |B_1| $ que no funciona para los pequeños $\epsilon$ . Usted menciona que utiliza el principio de reflexión. ¿Puede explicarlo?

3voto

AreaMan Puntos 3568

He aquí una prueba (se trata de una combinación de un ejercicio de cálculo estocástico de Steele, y un lema que aprendí de 'Brownian motion and diffusion processes' de Freedman).

Se da el caso de que $P( \sup_{0 \leq s \leq 1} |B_s| \leq \epsilon) > 0$ para cualquier $\epsilon > 0$ . He escrito una prueba aquí: Cómo demostrar que $P( \sup_{0 \leq s \leq 1} |B_s| \leq \epsilon) > 0$ para cualquier $\epsilon > 0$ ?

Suponemos que podemos escribir: $f(t) = \int_0^t h(s) ds$ . (No creo que esto sea una gran suposición, desde el punto de vista moral).

Definimos un proceso estocástico por $Z_t = B_t - \int_0^t h(s) ds$ .

Llame a $(\Omega, F, P)$ el espacio de probabilidad subyacente al proceso $(B_t)_{0 \leq t \leq 1}$ .

Entonces el teorema de Girsanov (Steele,Teorema 13.2) nos dice que hay una Martingale continua $0 < M_t$ para que en el marco de la medida $Q$ en $\Omega$ definido por $Q(A) = E_P[ 1_A M_1]$ , $Z_t$ se convierte en un movimiento browniano. Es decir, la distribución en el espacio de la trayectoria $C[0,T]$ inducido por el uso de $Z_t$ para impulsar la medida $Q$ es la medida estándar de Wiener.

Dejemos que $A = \{ \sup_{ 0 \leq t \leq 1} | Z_t | \leq \epsilon \}$ . Queremos demostrar que $P(A) > 0$ .

A partir del argumento vinculado, sabemos que $Q(A) > 0$ porque bajo $Q$ , $Z_t$ es un movimiento browniano. Dado que $Q(A) = E_P[1_A M_T]$ , $P(A) = 0$ es imposible.

Desde $A = \{ \sup_{ 0 \leq t \leq 1} | Z_t | \leq \epsilon \} = \{ \sup_{ 0 \leq t \leq 1} | B_t - f(t) | \leq \epsilon \}$ se deduce que $P( \sup_{ 0 \leq t \leq 1} | B_t - f(t) | \leq \epsilon) > 0$ para cualquier $\epsilon$ .

En realidad podemos conseguir algo mejor que lo que pediste siempre que tengamos un microscopio lo suficientemente bueno, podemos encontrar $f(t)$ hasta $1/n$ precisión para cualquier $n$ en cualquier trayectoria de movimiento browniano casi seguro...

  1. Definir $X_t^{(a,b)} = (b - a)^{-1/2} ( B_{a + t(b - a)} - B_a )$ para $0 \leq t \leq 1$ . Se trata de un movimiento browniano en $[0,1]$ debido a la propiedad de Markov y al escalamiento.

  2. Dejemos que $a_k = 2^{-k - 1}$ y $b_k = 2^{-k}$ , para $k = 0,1,2,3 \ldots$ . Entonces los procesos $X_t^{(a_k,b_k)}$ son independientes. (Esto se deduce de la propiedad de incrementos independientes del movimiento browniano).

  3. Además, por el trabajo anterior, $P ( \sup_{0 \leq t \leq 1} |X_t^{(a_k,b_k)} - g(t)| \leq \epsilon) = P( \sup_{0 \leq t \leq 1} |B_t - g(t) | \leq \epsilon) > 0$ para cualquier $\epsilon$ .

  4. Nombre $A_k = \{ \sup_{0 \leq t \leq 1} |X_t^{(a_k,b_k)}| \leq \epsilon \}$ . Estos son independientes, y a partir de 4., todos tienen la misma probabilidad. Por lo tanto, $\Sigma P(A_k) = \infty$ . A partir del lema de Borel-Cantelli, sabemos que $a.s$ infinitamente muchos de los $A_k$ ocurrir. En concreto, ocurre uno de ellos. (Pero tal vez se quiera observar que ocurren arbitrariamente cerca del tiempo cero, por lo que cualquier momento del tiempo será suficiente para observar algo que se parezca a nuestra función).

  5. Configurar $\epsilon = 1/n$ y la intersección de todos los $n$ te da lo que yo reclamaba.

¡Realmente alucinante!

1voto

user3371583 Puntos 181

Siento no poder dejar esto como comentario. Como primera idea, puedes aproximar la función continua $f$ con una función continua lineal a trozos (discretizar el intervalo $[0,1]$ . Y en cada subintervalo $[t_k, t_{k-1}]$ , puedes utilizar un puente browniano para calcular la probabilidad y demostrar que es positiva.

1 votos

No entiendo cómo se puede utilizar un puente browniano para hacer este cálculo. ¿Puedes explicarlo mejor?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X