Sí, su suposición es correcta, pero podemos decir mucho más que eso. Si \sigma,\mu son continuos, X_0=x \sigma > 0 en algunos conectado barrio de Ux, \mathbb{P}(X_t\in V) > 0 para todos los positivos veces t y no vacío abierto conjuntos de V\subseteq U.
Podemos ir aún más allá de esto, sin embargo. Si \gamma\colon[0,t^\prime]\to\mathbb{R} es continua con \gamma(0)=x\sigma(\gamma(t)) > 0, \mathbb{P}(\sup_{t\le t^\prime}\vert X_t-\gamma(t)\vert < \epsilon) > 0 para todos los positivos \epsilon. Dicho de otra manera, el apoyo de los caminos de la X (en un intervalo de tiempo finito) contiene todas continua de caminos a partir de x a lo largo de la cual \sigma es positivo. Estas declaraciones también se sostenga en el caso más general de diffussions en \mathbb{R}^n.
De hecho, no es necesario asumir que X es una difusión en todo, sólo que puede ser expresada como una integral estocástica. Es decir, \sigma,\mu no tiene que ser especificado como funciones de X. En el n-dimensional caso, podemos escribir
dX^i=\sum_{j=1}^m\sigma^{ij}_t\,dW^j_t+\mu^i_t\,dt.
Aquí, X=(X^1,\ldots,X^n) n- dimensional del proceso con X_0=x\in\mathbb{R}^n W=(W^1,\ldots,W^m) m- dimensiones el movimiento Browniano. Usted puede considerar la posibilidad de \sigma^{ij}_t \mu^i_t a ser las funciones de X_t si te gusta, pero que no es necesario. Todo lo que importa es que son predecibles procesos (que incluye todas continua y procesos adaptados).
En primer lugar, suponiendo que \mu,\sigma satisfacer algunas acotamiento condiciones, siempre que X está cerca de a x, entonces hay una probabilidad positiva de X restante arbitrariamente cerca de x. Voy a utilizar \Vert\cdot\Vert para denotar la distancia Euclídea normas en \mathbb{R}^n y en el n\times n matrices.
1) Supongamos que existe K > 0 tal que \Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K, \Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K y \Vert\sigma_t\sigma^T_t\Vert\le K siempre \Vert X_t - x\Vert < \delta (algunos positivos \delta). A continuación, \mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon) > 0 para todos los positivos \epsilon.
En el caso unidimensional, sólo tenemos que suponer que \sigma^{-2}\mu\le K \sigma^2\le K (no hay necesidad de suponer que \sigma se apartó de cero). Voy a probar (1) en un momento. En primer lugar, tiene la siguiente consecuencia.
2) Deje \gamma\colon[0,t^\prime]\to\mathbb{R}^n ser continuo, de manera que \gamma(0)=x e no es K > 0 con \Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K, \Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K y \Vert\sigma_t\sigma^T_t\Vert\le K siempre \Vert X_t-\gamma(t)\Vert < \delta (algunos positivos \delta). A continuación, \mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-\gamma(t)\Vert < \epsilon) > 0 para todos los positivos \epsilon.
En particular, las condiciones son satisfechas si \sigma_t=\sigma(X_t),\mu_t=\mu(X_t) son funciones continuas de X_t \sigma(\gamma_t)\sigma(\gamma_t)^T es nonsingular, lo que implica que las declaraciones en el primer párrafo de este post.
A ver que (2) se sigue de (1), considere el caso donde \gamma es continuamente diferenciable (esto es suficiente, ya que todas las funciones continuas de forma uniforme aproximada por las lisas). Suponiendo que los requisitos de (2) se cumplen, ver el \tilde X_t=X_t-\gamma(t). Esto satisface los requisitos de (1) con \mu reemplazado por \mu-\gamma^\prime. Así que, por (1), \tilde X tiene probabilidad positiva de los restantes arbitrariamente cercano a 0, y X tiene probabilidad positiva de los restantes arbitrariamente cerca de \gamma.
Ahora, vamos a demostrar (1). Podemos suponer que el \epsilon < \delta y, por detener X tan pronto como \Vert X-x\Vert aciertos \delta, podemos suponer que \Vert(\sigma_t\sigma_t^T)^{-1}\Vert, \Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert y \Vert\sigma_t\sigma_t^T\Vert siempre están delimitadas por K. Entonces, hay un proceso predecible \nu\Vert\nu\Vert\le K\mu_t=\sigma_t\sigma_t^T\nu_t. Definir una nueva medida \mathbb{Q} por el Girsanov transformar
\frac{d\mathbb{Q}}{d\mathbb{P}}=\exp\left(-\sum_{j=1}^m\int_0^{t^\prime}(\sigma^T_t\nu_t)^j\,dW^j_t-\frac12\int_0^{t^\prime}\nu_t^T\sigma_t\sigma^T_t\nu_t\,dt\right)
Esta es una medida equivalente a \mathbb{P} y, por la teoría de Girsanov transforma, \tilde W_t=W_t+\int_0^t\sigma^T_s\nu_s\,ds \mathbb{Q}- movimiento Browniano. Como hemos
dX^i_t=\sum_{j=1}^m\sigma^{ij}_t\,d\tilde W^j_t
esto reduce el problema para el caso en que \mu es cero. Por lo tanto, vamos a suponer que ese \mu=0 a partir de ahora.
En el caso unidimensional, donde dX_t=\sigma_t\,dW_t, es suficiente para suponer que el \sigma_t^2\le K. Esto es debido a que un estocástico de tiempo, el cambio puede ser usado para escribir el local de martingala X X_t=x+B_{A_t} donde B es un movimiento Browniano con respecto a sus procesos naturales de filtración y A_t=\int_0^t\sigma_s^2\,ds\le Kt. A continuación, \sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon siempre \sup_{t\le Kt^\prime}\vert B_t\vert < \epsilon. Sin embargo, la norma Browniano tiene un valor distinto de cero probabilidad de permanecer dentro de una positiva distancia \epsilon de origen (véanse las respuestas a este matemática.SE pregunta), por lo \{\sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon\} tiene probabilidad positiva.
En el multidimensional caso debemos asumir también que \Vert(\sigma\sigma^T)^{-1}\Vert\le K. Podemos entonces reducir para el caso unidimensional. Establecimiento Y=\Vert X-x\Vert^2, integración por partes da
\begin{align}
dY_t&=\tilde\sigma_t\,d\tilde W+\tilde\mu_t\,dt,\\
\tilde\sigma_t&=2\sqrt{(X_t-x)^T\sigma_t\sigma_t^T(X_t-x)},\\
\tilde\mu_t&={\rm Tr}(\sigma_t\sigma^T_t),\\
\tilde W_t&=2\sum_{i,j}\int_0^t1_{\{X_s\not=x\}}\tilde\sigma_s^{-1}(X^i_s-x^i)\sigma^{ij}_s\,dW^j_s.
\end{align}
Se puede comprobar que \tilde W ha cuadrática variación [\tilde W]_t=t, de modo que, por Lévy a la caracterización de movimiento Browniano, \tilde W es un estándar de movimiento Browniano. Entonces, \tilde\sigma_t, \tilde\sigma_t^{-1} y \tilde\mu_t están delimitadas por Y_t acostado en cualquier subconjunto compacto de (0,\infty). Si dejamos \tau ser la primera vez en que Y aciertos \epsilon^2/2, entonces, la aplicación de (1) en el caso unidimensional a Y_{\tau+t}, existe una probabilidad positiva de que \sup_{t\le t^\prime}\vert Y_{\tau+t}-\epsilon^2/2\vert < \epsilon^2/2. Sin embargo, en este caso, tenemos \sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon.
Finalmente, en el n-dimensional caso, me voy a dar un ejemplo para mostrar que los X no necesita tener una probabilidad positiva de permanecer cerca de su punto de partida, incluso cuando \mu=0 \sigma está acotada. Considere el caso de dos dimensiones, n=2, m=1 \sigma_t=R\hat X_t donde R es el lineal mapa dando un giro de 90 grados y \hat x\equiv1_{\{x\not=0\}}x/\Vert x\Vert. Así,
dX_t=R\hat X_t\,dW_t
para un movimiento Browniano W. A continuación, X^T\,dX=0 y la integración por partes muestra que si X_0\not=0 \Vert X\Vert aumenta de manera determinista,
\begin{align}
\Vert X_t\Vert^2&=\Vert X_0\Vert^2+\sum_{i=1}^2[X^i]_t=\Vert X_0\Vert^2+\int_0^t\hat X_s^TR^TR\hat X_s\,ds\\
&=\Vert X_0\Vert^2+t.
\end{align}