5 votos

Propiedad de difusión

Considere la posibilidad de un continuo en tiempo real de los valores de proceso de Markov $X_t$ dado por un SDE: $$ dX_t = \mu(X_t)dt+\sigma (X_t)dW_t. $$ Deje $\mu,\sigma\in C^1(\mathbb R)$$\sigma\ge0$. Por otra parte, supongamos que $\mu,\sigma$ son tales que no existe una solución única para cualquier valor inicial $X_0 = x$.

Supongo que si por alguna $x\in \mathbb R$ tenemos $\sigma(x)>0$, entonces existe un vecindario $U(x)$ que para todos los $y\in U(x)$ y para cualquier vecindad $U(y)$ existe $t'>0$ tal que $$\mathsf P\{X_t \in U(y)|X_0 = x\}>0$$ for all $0<t\leq t'$. ¿Alguien tiene una idea de cómo demostrarlo?

4voto

bsayegh Puntos 123

Solo por la continuidad del camino, si$x$ es un punto de inicio y$U$ es un vecindario de$x$, entonces el tiempo de salida$T:=\inf\{t\ge 0: X_t\notin U\}$ es estrictamente positivo, con probabilidad 1. Por lo tanto, para lo suficientemente pequeño$t>0$ (lo pequeño depende tanto de$x$ como de$U$), $$ P \ {X_s \ en U \ hbox {para todos} s \ en [0, t] | X_0 = x \} = P \ {T> t | X_0 = x \}> 0. $$ No es necesario asumir$\sigma(x)>0$.

4voto

codeConcussion Puntos 7250

Sí, su suposición es correcta, pero podemos decir mucho más que eso. Si $\sigma,\mu$ son continuos, $X_0=x$ $\sigma > 0$ en algunos conectado barrio de $U$$x$, $\mathbb{P}(X_t\in V) > 0$ para todos los positivos veces $t$ y no vacío abierto conjuntos de $V\subseteq U$. Podemos ir aún más allá de esto, sin embargo. Si $\gamma\colon[0,t^\prime]\to\mathbb{R}$ es continua con $\gamma(0)=x$$\sigma(\gamma(t)) > 0$, $\mathbb{P}(\sup_{t\le t^\prime}\vert X_t-\gamma(t)\vert < \epsilon) > 0$ para todos los positivos $\epsilon$. Dicho de otra manera, el apoyo de los caminos de la $X$ (en un intervalo de tiempo finito) contiene todas continua de caminos a partir de $x$ a lo largo de la cual $\sigma$ es positivo. Estas declaraciones también se sostenga en el caso más general de diffussions en $\mathbb{R}^n$.

De hecho, no es necesario asumir que $X$ es una difusión en todo, sólo que puede ser expresada como una integral estocástica. Es decir, $\sigma,\mu$ no tiene que ser especificado como funciones de $X$. En el $n$-dimensional caso, podemos escribir $$ dX^i=\sum_{j=1}^m\sigma^{ij}_t\,dW^j_t+\mu^i_t\,dt. $$ Aquí, $X=(X^1,\ldots,X^n)$ $n$- dimensional del proceso con $X_0=x\in\mathbb{R}^n$ $W=(W^1,\ldots,W^m)$ $m$- dimensiones el movimiento Browniano. Usted puede considerar la posibilidad de $\sigma^{ij}_t$ $\mu^i_t$ a ser las funciones de $X_t$ si te gusta, pero que no es necesario. Todo lo que importa es que son predecibles procesos (que incluye todas continua y procesos adaptados).

En primer lugar, suponiendo que $\mu,\sigma$ satisfacer algunas acotamiento condiciones, siempre que $X$ está cerca de a $x$, entonces hay una probabilidad positiva de $X$ restante arbitrariamente cerca de $x$. Voy a utilizar $\Vert\cdot\Vert$ para denotar la distancia Euclídea normas en $\mathbb{R}^n$ y en el $n\times n$ matrices.

1) Supongamos que existe $K > 0$ tal que $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K$ y $\Vert\sigma_t\sigma^T_t\Vert\le K$ siempre $\Vert X_t - x\Vert < \delta$ (algunos positivos $\delta$). A continuación, $\mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon) > 0$ para todos los positivos $\epsilon$.

En el caso unidimensional, sólo tenemos que suponer que $\sigma^{-2}\mu\le K$ $\sigma^2\le K$ (no hay necesidad de suponer que $\sigma$ se apartó de cero). Voy a probar (1) en un momento. En primer lugar, tiene la siguiente consecuencia.

2) Deje $\gamma\colon[0,t^\prime]\to\mathbb{R}^n$ ser continuo, de manera que $\gamma(0)=x$ e no es $K > 0$ con $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K$ y $\Vert\sigma_t\sigma^T_t\Vert\le K$ siempre $\Vert X_t-\gamma(t)\Vert < \delta$ (algunos positivos $\delta$). A continuación, $\mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-\gamma(t)\Vert < \epsilon) > 0$ para todos los positivos $\epsilon$.

En particular, las condiciones son satisfechas si $\sigma_t=\sigma(X_t),\mu_t=\mu(X_t)$ son funciones continuas de $X_t$ $\sigma(\gamma_t)\sigma(\gamma_t)^T$ es nonsingular, lo que implica que las declaraciones en el primer párrafo de este post.

A ver que (2) se sigue de (1), considere el caso donde $\gamma$ es continuamente diferenciable (esto es suficiente, ya que todas las funciones continuas de forma uniforme aproximada por las lisas). Suponiendo que los requisitos de (2) se cumplen, ver el $\tilde X_t=X_t-\gamma(t)$. Esto satisface los requisitos de (1) con $\mu$ reemplazado por $\mu-\gamma^\prime$. Así que, por (1), $\tilde X$ tiene probabilidad positiva de los restantes arbitrariamente cercano a 0, y $X$ tiene probabilidad positiva de los restantes arbitrariamente cerca de $\gamma$.

Ahora, vamos a demostrar (1). Podemos suponer que el $\epsilon < \delta$ y, por detener $X$ tan pronto como $\Vert X-x\Vert$ aciertos $\delta$, podemos suponer que $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert$ y $\Vert\sigma_t\sigma_t^T\Vert$ siempre están delimitadas por $K$. Entonces, hay un proceso predecible $\nu$$\Vert\nu\Vert\le K$$\mu_t=\sigma_t\sigma_t^T\nu_t$. Definir una nueva medida $\mathbb{Q}$ por el Girsanov transformar $$ \frac{d\mathbb{Q}}{d\mathbb{P}}=\exp\left(-\sum_{j=1}^m\int_0^{t^\prime}(\sigma^T_t\nu_t)^j\,dW^j_t-\frac12\int_0^{t^\prime}\nu_t^T\sigma_t\sigma^T_t\nu_t\,dt\right) $$ Esta es una medida equivalente a $\mathbb{P}$ y, por la teoría de Girsanov transforma, $\tilde W_t=W_t+\int_0^t\sigma^T_s\nu_s\,ds$ $\mathbb{Q}$- movimiento Browniano. Como hemos $$ dX^i_t=\sum_{j=1}^m\sigma^{ij}_t\,d\tilde W^j_t $$ esto reduce el problema para el caso en que $\mu$ es cero. Por lo tanto, vamos a suponer que ese $\mu=0$ a partir de ahora.

En el caso unidimensional, donde $dX_t=\sigma_t\,dW_t$, es suficiente para suponer que el $\sigma_t^2\le K$. Esto es debido a que un estocástico de tiempo, el cambio puede ser usado para escribir el local de martingala $X$ $X_t=x+B_{A_t}$ donde $B$ es un movimiento Browniano con respecto a sus procesos naturales de filtración y $A_t=\int_0^t\sigma_s^2\,ds\le Kt$. A continuación, $\sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon$ siempre $\sup_{t\le Kt^\prime}\vert B_t\vert < \epsilon$. Sin embargo, la norma Browniano tiene un valor distinto de cero probabilidad de permanecer dentro de una positiva distancia $\epsilon$ de origen (véanse las respuestas a este matemática.SE pregunta), por lo $\{\sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon\}$ tiene probabilidad positiva.

En el multidimensional caso debemos asumir también que $\Vert(\sigma\sigma^T)^{-1}\Vert\le K$. Podemos entonces reducir para el caso unidimensional. Establecimiento $Y=\Vert X-x\Vert^2$, integración por partes da $$ \begin{align} dY_t&=\tilde\sigma_t\,d\tilde W+\tilde\mu_t\,dt,\\ \tilde\sigma_t&=2\sqrt{(X_t-x)^T\sigma_t\sigma_t^T(X_t-x)},\\ \tilde\mu_t&={\rm Tr}(\sigma_t\sigma^T_t),\\ \tilde W_t&=2\sum_{i,j}\int_0^t1_{\{X_s\not=x\}}\tilde\sigma_s^{-1}(X^i_s-x^i)\sigma^{ij}_s\,dW^j_s. \end{align} $$ Se puede comprobar que $\tilde W$ ha cuadrática variación $[\tilde W]_t=t$, de modo que, por Lévy a la caracterización de movimiento Browniano, $\tilde W$ es un estándar de movimiento Browniano. Entonces, $\tilde\sigma_t$, $\tilde\sigma_t^{-1}$ y $\tilde\mu_t$ están delimitadas por $Y_t$ acostado en cualquier subconjunto compacto de $(0,\infty)$. Si dejamos $\tau$ ser la primera vez en que $Y$ aciertos $\epsilon^2/2$, entonces, la aplicación de (1) en el caso unidimensional a $Y_{\tau+t}$, existe una probabilidad positiva de que $\sup_{t\le t^\prime}\vert Y_{\tau+t}-\epsilon^2/2\vert < \epsilon^2/2$. Sin embargo, en este caso, tenemos $\sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon$.


Finalmente, en el $n$-dimensional caso, me voy a dar un ejemplo para mostrar que los $X$ no necesita tener una probabilidad positiva de permanecer cerca de su punto de partida, incluso cuando $\mu=0$ $\sigma$ está acotada. Considere el caso de dos dimensiones, $n=2$, $m=1$ $\sigma_t=R\hat X_t$ donde $R$ es el lineal mapa dando un giro de 90 grados y $\hat x\equiv1_{\{x\not=0\}}x/\Vert x\Vert$. Así, $$ dX_t=R\hat X_t\,dW_t $$ para un movimiento Browniano $W$. A continuación, $X^T\,dX=0$ y la integración por partes muestra que si $X_0\not=0$ $\Vert X\Vert$ aumenta de manera determinista, $$ \begin{align} \Vert X_t\Vert^2&=\Vert X_0\Vert^2+\sum_{i=1}^2[X^i]_t=\Vert X_0\Vert^2+\int_0^t\hat X_s^TR^TR\hat X_s\,ds\\ &=\Vert X_0\Vert^2+t. \end{align} $$

1voto

Colonel Panic Puntos 91

Déjame intentarlo de nuevo, esta vez para responder a la pregunta correcta!

Si, además de las otras hipótesis, la función de $\sigma$ está en todas partes estrictamente positivo, $X_t$ admite un (continua, estrictamente positivo) función de densidad de $p(t,x,y)$: $$ \mathbf{P}\{X_t\en | X_0=x\} = \int_A p_t(x,y)\,dy $$ para cada subconjunto de Borel $A$ (y todos los $x$). [Véase, por ejemplo, en el artículo 4.11 del libro de Ito y McKean.] Esto es más que suficiente para responder a su pregunta en forma afirmativa.

Supongamos ahora que $\sigma(x)>0$ para un valor fijo de $x$. Entonces existe un intervalo abierto $U(x)$ contiene $x$ tal que $\inf_{y\in U(x)}\sigma(y) >0$. Las observaciones del párrafo anterior se aplican a la difusión ( $Y$ ) obtenido por la matanza $X$ en su primera salida de $U(x)$. (Esto equivale a restringir $\sigma$$\mu$$U(x)$, el empleo de Dirichlet las condiciones de contorno en los extremos de $U(x)$.) En particular, $Y_t$ admite una función de densidad de $q(t,y,z)$ ($q(t,y,z)>0$todos los $t>0$ y todos los $y,z$$U(x)$) con respecto a la medida de Lebesgue. Tenemos, entonces, para cualquier fija $y\in U(x)$, $$ \mathbf{P}\{X_t\en | X_0=y\} \geq \mathbf{P}\{X_t\en a, T>t | X_0=y\}, $$ donde $T$ es el primer tiempo de salida de la $X$$U(x)$. El lado derecho de la pantalla anterior es igual a $$ \mathbf{P}\{Y_t\en | Y_0=y\} =\int_A q(t,y,z)\,dz. $$ Como antes, esto implica una respuesta positiva a su pregunta, en el caso general.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X