Sí, su suposición es correcta, pero podemos decir mucho más que eso. Si $\sigma,\mu$ son continuos, $X_0=x$ $\sigma > 0$ en algunos conectado barrio de $U$$x$, $\mathbb{P}(X_t\in V) > 0$ para todos los positivos veces $t$ y no vacío abierto conjuntos de $V\subseteq U$.
Podemos ir aún más allá de esto, sin embargo. Si $\gamma\colon[0,t^\prime]\to\mathbb{R}$ es continua con $\gamma(0)=x$$\sigma(\gamma(t)) > 0$, $\mathbb{P}(\sup_{t\le t^\prime}\vert X_t-\gamma(t)\vert < \epsilon) > 0$ para todos los positivos $\epsilon$. Dicho de otra manera, el apoyo de los caminos de la $X$ (en un intervalo de tiempo finito) contiene todas continua de caminos a partir de $x$ a lo largo de la cual $\sigma$ es positivo. Estas declaraciones también se sostenga en el caso más general de diffussions en $\mathbb{R}^n$.
De hecho, no es necesario asumir que $X$ es una difusión en todo, sólo que puede ser expresada como una integral estocástica. Es decir, $\sigma,\mu$ no tiene que ser especificado como funciones de $X$. En el $n$-dimensional caso, podemos escribir
$$
dX^i=\sum_{j=1}^m\sigma^{ij}_t\,dW^j_t+\mu^i_t\,dt.
$$
Aquí, $X=(X^1,\ldots,X^n)$ $n$- dimensional del proceso con $X_0=x\in\mathbb{R}^n$ $W=(W^1,\ldots,W^m)$ $m$- dimensiones el movimiento Browniano. Usted puede considerar la posibilidad de $\sigma^{ij}_t$ $\mu^i_t$ a ser las funciones de $X_t$ si te gusta, pero que no es necesario. Todo lo que importa es que son predecibles procesos (que incluye todas continua y procesos adaptados).
En primer lugar, suponiendo que $\mu,\sigma$ satisfacer algunas acotamiento condiciones, siempre que $X$ está cerca de a $x$, entonces hay una probabilidad positiva de $X$ restante arbitrariamente cerca de $x$. Voy a utilizar $\Vert\cdot\Vert$ para denotar la distancia Euclídea normas en $\mathbb{R}^n$ y en el $n\times n$ matrices.
1) Supongamos que existe $K > 0$ tal que $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K$ y $\Vert\sigma_t\sigma^T_t\Vert\le K$ siempre $\Vert X_t - x\Vert < \delta$ (algunos positivos $\delta$). A continuación, $\mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon) > 0$ para todos los positivos $\epsilon$.
En el caso unidimensional, sólo tenemos que suponer que $\sigma^{-2}\mu\le K$ $\sigma^2\le K$ (no hay necesidad de suponer que $\sigma$ se apartó de cero). Voy a probar (1) en un momento. En primer lugar, tiene la siguiente consecuencia.
2) Deje $\gamma\colon[0,t^\prime]\to\mathbb{R}^n$ ser continuo, de manera que $\gamma(0)=x$ e no es $K > 0$ con $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert\le K$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert\le K$ y $\Vert\sigma_t\sigma^T_t\Vert\le K$ siempre $\Vert X_t-\gamma(t)\Vert < \delta$ (algunos positivos $\delta$). A continuación, $\mathbb{P}(\sup_{t\le t^\prime}\Vert X_t-\gamma(t)\Vert < \epsilon) > 0$ para todos los positivos $\epsilon$.
En particular, las condiciones son satisfechas si $\sigma_t=\sigma(X_t),\mu_t=\mu(X_t)$ son funciones continuas de $X_t$ $\sigma(\gamma_t)\sigma(\gamma_t)^T$ es nonsingular, lo que implica que las declaraciones en el primer párrafo de este post.
A ver que (2) se sigue de (1), considere el caso donde $\gamma$ es continuamente diferenciable (esto es suficiente, ya que todas las funciones continuas de forma uniforme aproximada por las lisas). Suponiendo que los requisitos de (2) se cumplen, ver el $\tilde X_t=X_t-\gamma(t)$. Esto satisface los requisitos de (1) con $\mu$ reemplazado por $\mu-\gamma^\prime$. Así que, por (1), $\tilde X$ tiene probabilidad positiva de los restantes arbitrariamente cercano a 0, y $X$ tiene probabilidad positiva de los restantes arbitrariamente cerca de $\gamma$.
Ahora, vamos a demostrar (1). Podemos suponer que el $\epsilon < \delta$ y, por detener $X$ tan pronto como $\Vert X-x\Vert$ aciertos $\delta$, podemos suponer que $\Vert(\sigma_t\sigma_t^T)^{-1}\Vert$, $\Vert(\sigma_t\sigma_t^T)^{-1}\mu_t\Vert$ y $\Vert\sigma_t\sigma_t^T\Vert$ siempre están delimitadas por $K$. Entonces, hay un proceso predecible $\nu$$\Vert\nu\Vert\le K$$\mu_t=\sigma_t\sigma_t^T\nu_t$. Definir una nueva medida $\mathbb{Q}$ por el Girsanov transformar
$$
\frac{d\mathbb{Q}}{d\mathbb{P}}=\exp\left(-\sum_{j=1}^m\int_0^{t^\prime}(\sigma^T_t\nu_t)^j\,dW^j_t-\frac12\int_0^{t^\prime}\nu_t^T\sigma_t\sigma^T_t\nu_t\,dt\right)
$$
Esta es una medida equivalente a $\mathbb{P}$ y, por la teoría de Girsanov transforma, $\tilde W_t=W_t+\int_0^t\sigma^T_s\nu_s\,ds$ $\mathbb{Q}$- movimiento Browniano. Como hemos
$$
dX^i_t=\sum_{j=1}^m\sigma^{ij}_t\,d\tilde W^j_t
$$
esto reduce el problema para el caso en que $\mu$ es cero. Por lo tanto, vamos a suponer que ese $\mu=0$ a partir de ahora.
En el caso unidimensional, donde $dX_t=\sigma_t\,dW_t$, es suficiente para suponer que el $\sigma_t^2\le K$. Esto es debido a que un estocástico de tiempo, el cambio puede ser usado para escribir el local de martingala $X$ $X_t=x+B_{A_t}$ donde $B$ es un movimiento Browniano con respecto a sus procesos naturales de filtración y $A_t=\int_0^t\sigma_s^2\,ds\le Kt$. A continuación, $\sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon$ siempre $\sup_{t\le Kt^\prime}\vert B_t\vert < \epsilon$. Sin embargo, la norma Browniano tiene un valor distinto de cero probabilidad de permanecer dentro de una positiva distancia $\epsilon$ de origen (véanse las respuestas a este matemática.SE pregunta), por lo $\{\sup_{t\le t^\prime}\vert X_t-x\vert < \epsilon\}$ tiene probabilidad positiva.
En el multidimensional caso debemos asumir también que $\Vert(\sigma\sigma^T)^{-1}\Vert\le K$. Podemos entonces reducir para el caso unidimensional. Establecimiento $Y=\Vert X-x\Vert^2$, integración por partes da
$$
\begin{align}
dY_t&=\tilde\sigma_t\,d\tilde W+\tilde\mu_t\,dt,\\
\tilde\sigma_t&=2\sqrt{(X_t-x)^T\sigma_t\sigma_t^T(X_t-x)},\\
\tilde\mu_t&={\rm Tr}(\sigma_t\sigma^T_t),\\
\tilde W_t&=2\sum_{i,j}\int_0^t1_{\{X_s\not=x\}}\tilde\sigma_s^{-1}(X^i_s-x^i)\sigma^{ij}_s\,dW^j_s.
\end{align}
$$
Se puede comprobar que $\tilde W$ ha cuadrática variación $[\tilde W]_t=t$, de modo que, por Lévy a la caracterización de movimiento Browniano, $\tilde W$ es un estándar de movimiento Browniano. Entonces, $\tilde\sigma_t$, $\tilde\sigma_t^{-1}$ y $\tilde\mu_t$ están delimitadas por $Y_t$ acostado en cualquier subconjunto compacto de $(0,\infty)$. Si dejamos $\tau$ ser la primera vez en que $Y$ aciertos $\epsilon^2/2$, entonces, la aplicación de (1) en el caso unidimensional a $Y_{\tau+t}$, existe una probabilidad positiva de que $\sup_{t\le t^\prime}\vert Y_{\tau+t}-\epsilon^2/2\vert < \epsilon^2/2$. Sin embargo, en este caso, tenemos $\sup_{t\le t^\prime}\Vert X_t-x\Vert < \epsilon$.
Finalmente, en el $n$-dimensional caso, me voy a dar un ejemplo para mostrar que los $X$ no necesita tener una probabilidad positiva de permanecer cerca de su punto de partida, incluso cuando $\mu=0$ $\sigma$ está acotada. Considere el caso de dos dimensiones, $n=2$, $m=1$ $\sigma_t=R\hat X_t$ donde $R$ es el lineal mapa dando un giro de 90 grados y $\hat x\equiv1_{\{x\not=0\}}x/\Vert x\Vert$. Así,
$$
dX_t=R\hat X_t\,dW_t
$$
para un movimiento Browniano $W$. A continuación, $X^T\,dX=0$ y la integración por partes muestra que si $X_0\not=0$ $\Vert X\Vert$ aumenta de manera determinista,
$$
\begin{align}
\Vert X_t\Vert^2&=\Vert X_0\Vert^2+\sum_{i=1}^2[X^i]_t=\Vert X_0\Vert^2+\int_0^t\hat X_s^TR^TR\hat X_s\,ds\\
&=\Vert X_0\Vert^2+t.
\end{align}
$$