4 votos

Continuidad del proceso estándar de Wiener

Esta será una gran pregunta. Básicamente, yo tenía un profesor que, por decirlo suavemente, no fue capaz de explicar nada bien. Me estoy preparando para el examen de ahora. Un ejemplo de pregunta de examen es la siguiente:

Dada la función de densidad de transición de un estándar de proceso de Wiener:

$$f_{1\mid1} (x_2,t_2\mid x_1,t_1) = \frac{1}{\sqrt{2\pi (t_2 - t_1)} } \exp\left( -\frac{(x_2-x_1)^2}{2(t_2-t_1)}\right)$$

Uno tiene que mostrar que la anterior se ajusta a la Lindberg condición:

$$\lim_{\Delta t \to 0} \frac{1}{\Delta t} \int_{|x_2-x_1|>\epsilon} f_{1\mid1} (x_2,t+\Delta t \mid x_1,t) dx_2 =0 \ \ \ \forall \epsilon >0 \ \text{uniformly in} \ x_1,t,\Delta t$$

En realidad estaba admitido para el curso aunque no tengo ninguna formales de fondo en la asignatura de matemáticas. Así que voy a destacar las siguientes áreas que son problemáticos para mí:

  • Sé de algunos análisis de la lectura que he hecho, $\epsilon$ es algo de valor positivo, por convención. Así que estoy realmente seguro de por qué la pregunta pone de relieve "$\forall \epsilon > 0$". Como esto es verdad por convención.
  • Nunca he visto una integral con un enlazado antes. Yo, por supuesto, entender lo que significa. Queremos integrar sólo cuando la diferencia absoluta es mayor que algún valor positivo. Pero, ¿cómo que se traduciría en realidad, la evaluación de la integral, no tengo idea. (También recordar que $\epsilon$ es arbitrario).
  • No entiendo lo de la "manera uniforme en ..." parte de los medios.
  • Para demostrar que la expresión se evalúa a cero cuando tomamos el límite para el cambio en $t$ a ir a cero, necesitamos que la expresión de la integral se evalúa a $0$? No veo qué otro caso hay que asegurarse de que, al $1/\Delta t$ $\Delta t \rightarrow 0$ se convierte en infinito.

Así que con todo mi limitado conocimiento:

$$f_{1\mid1} (x_2,t_1 + \Delta t_1\mid x_1,t_1) = \frac{1}{\sqrt{2\pi (\Delta t_1)} } \exp\left( -\frac{(x_2-x_1)^2}{(\Delta t_1)^2}\right)$$

$$\lim_{\Delta t \to 0} \frac{1}{\Delta t} \int_{|x_2-x_1|>\epsilon} \frac{1}{\sqrt{2\pi (\Delta t_1)} } \exp\left( -\frac{(x_2-x_1)^2}{(\Delta t_1)^2}\right) dx_2$$

$$\lim_{\Delta t \to 0} \frac{1}{\Delta t^{3/2}\sqrt{2\pi}} \int_{|x_2-x_1|>\epsilon} \exp\left( -\frac{(x_2-x_1)^2}{(\Delta t_1)^2}\right) dx_2$$

Y eso es todo.. probablemente debería mencionar que tengo algunos conocimientos elementales de lo que es un proceso de Markov es, lo que la transición de la densidad y es que este requisito es para la continuidad del proceso. También que si integramos w.r.t. a $x_2$ en este caso, lo que hacemos básicamente es deshacerse de esa variable.

1voto

John Dawkins Puntos 3738

Su fórmula para la transición de la densidad debe ser corregido; si debe ser $$ \frac{1}{\sqrt{2\pi (t_2 - t_1)} } \exp\left( -\frac{(x_2-x_1)^2}{2(t_2-t_1)}\right). $$

Su integral puede ser interpretado como una probabilidad, y esto ayuda a evaluar el límite. Deje $X(\Delta t_1)$ ser una variable aleatoria que se distribuye normalmente con una media de $x_1$ y la varianza $\Delta t_1$. Su integral es entonces $$ \Bbb P[|X(\Delta t_1)-x_1|>\epsilon]. $$ Para demostrar el límite de la afirmación, no necesitamos evaluar esta probabilidad explícitamente, pero sólo para encontrar una lo suficientemente precisa como límite superior. El primer impulso es el uso de la desigualdad de Chebyshev $$ \Bbb P[|X(\Delta t_1)-x_1|>\epsilon]\le{var(X(\Delta t_1))\\epsilon^2}={\Delta t_1\\epsilon^2}, $$ pero esto no es suficiente, porque cuando se divide por $\Delta t_1$ no convergen a $0$.

Así que vamos a re-escribir el evento en cuestión y, a continuación, utilizar la desigualdad de Markov: $$ \eqalign{ \Bbb P[|X(\Delta t_1)-x_1|>\epsilon] &=\Bbb P[|X(\Delta t_1)-x_1|^4>\epsilon^4]\cr &\le{\Bbb E[(X(\Delta t_1)-x_1)^4]\\epsilon^4}\cr Y={3(\Delta t_1)^2\\epsilon^4}.\cr } $$ (En el último paso aquí he utilizado el hecho de que el cuarto momento central de una variable aleatoria normal es 3 veces el cuadrado de su varianza.) Hemos demostrado que el límite superior $$ {1\over \Delta t_1}\Bbb P[|X(\Delta t_1)-x_1|>\epsilon] \le {3\Delta t_1\\epsilon^4}. $$ Este límite superior tiende a $0$$\Delta t_1\to 0$, y no depende de la $x_1$ o $t$ (de ahí el "uniformidad" en la convergencia). El obligado no depende de $\epsilon$ en una manera que empeora a medida $\epsilon$ se vuelve pequeña, por lo que la convergencia, o al menos en la parte superior bpund, no es uniforme con respecto a $\epsilon$.

[Por cierto, no he visto esta condición llamada "Lindeberg condición de" antes"; en lugar de "Dynkin del estado".]

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X