Me preguntaba cuándo un proceso estocástico definido a través de un SDE es Markovian. El SDE puede incluir Ito integral, integral de Lebesgue, componente de salto y cualquier otra cosa. La razón por la que hago esta pregunta es porque no entiendo cuándo podemos y no podemos discutir las propiedades de un proceso de Markov, como las ecuaciones de Kolmogorov, para un proceso definido por un SDE. ¡Gracias y saludos!
Respuestas
¿Demasiados anuncios?Considere el siguiente SDE
ps
satisfaciendo las siguientes hipótesis:
hay$$ X_t ^{s,x} = x +\int _s^t \sigma(u,X_t ^{u,x}) ~ dW_u+\int _s^t b(u,X_t ^{u,x}) ~ du $ tal que, para todo$C>0$ y$(x,y) \in \mathbb R ^p \times \mathbb R ^p$
ps
para todos$u \in \mathbb R _+$ y$$\left|\sigma(u,x) -\sigma(u,y) \right|+\left|b(u,x) -b(u,y) \right|\leq C\left|x-y \right|$
ps
Si el$t\in \mathbb R _+$ y$x\in \mathbb R ^p$ son homogéneos en el tiempo, es decir, $ \ sigma (u, x) = \ sigma (x)$$ \int_s^t \left(\left| \sigma \right|^2(u,x)+\left|b \right|^2(u,x)\right)~du <+ \infty$ b (u, x) = b (x) $, la propiedad simple de markov se aplica a la solución de este EDS.
Si SDEs son de la forma $\mathrm dX_t = \sum_{i=1}^n f(X_t)\mathrm dY^i_t$ donde $Y^i$ son procesos de Markov y $f$ son algunas de las funciones, que a menos que $Y^i$ $f$ no son "lo suficientemente bueno", $X$ será un proceso de Markov. Intuitivamente, este es el caso, dado que la dinámica futura de $X_t$ es independiente de su pasado: por ejemplo, $$ \mathrm dX_t = X_t\mathrm dW_t $$ es un proceso de Markov, mientras que $$ \mathrm dX_t = \left(\int_0^t X_s\mathrm ds\right)\mathrm dW_t $$ no es. No estoy seguro de que no es una respuesta completa, que "bonita" de las condiciones de $Y^i$ $f$ a verificar en orden para $X$ a ser un (fuerte) de Markov del proceso -, pero supongo que son conscientes de los muchos ejemplos de tales condiciones para saltar de difusión.
Un buen ejemplo de esto es la integral del tiempo del proceso de Ornstein-Uhlenbeck. Por sí solo, este no es un proceso de Markov. Sin embargo, un proceso estocástico bidimensional, con una coordinación que es el proceso de Ornstein-Uhlenbeck y el otro que es integral en el tiempo, será un proceso bidimensional de Markov. De manera similar, un proceso de Markov unidimensional y su proceso supremo, comprenden un proceso de Markov bidimensional.