26 votos

¿Puedo aplicar el teorema de Girsanov a un proceso Ornstein-Uhlenbeck?

Sea $W_t$ sea un movimiento browniano estándar, y $X_t$ un proceso adaptado y mensurable. El teorema de Girsanov dice que, bajo ciertas condiciones, el movimiento browniano con deriva $Y_t = W_t - \int_0^t X_s\,ds$ puede ser un movimiento browniano bajo una cierta medida de probabilidad equivalente.

Quiero aplicar el teorema de Girsanov con $X_t$ un proceso Ornstein-Uhlenbeck definido por $dX_t = dW_t - X_t dt$ , $X_0 = 0$ . En este caso tendríamos $Y_t = X_t$ Así aprendería que un proceso Ornstein-Uhlenbeck puede ser un movimiento browniano bajo una medida equivalente.

La condición necesaria para que se cumpla el teorema de Girsanov es que $$Z_t = \exp\left(\int_0^t X_s\,dW_s - \frac{1}{2} \int_0^t X_s^2\,ds\right)$$ sea una martingala.

¿Se cumple esta condición?

Una condición suficiente, debida a Novikov, es que $$E \exp\left(\frac{1}{2} \int_0^T X_s^2\,ds\right) < \infty.$$ No consigo ver cómo verificar ninguna de estas condiciones, aunque el proceso Ornstein-Uhlenbeck tiene tantas buenas propiedades que uno pensaría que algo sencillo podría funcionar.

Esta cuestión surgió al estudiar la solución del oscilador armónico cuántico mediante la fórmula de Feynman-Kac. Intento comprender la "transformación del estado fundamental" en términos de la fórmula de Girsanov.

Gracias.

14voto

Thomas Puntos 31

@Nate: Me parece bien tu argumento. No conocía el teorema de Ferinique. Mi argumento en esa parte era este.

Fijar $T>0$ (como hizo finalmente $T+1$ ). Aplicando Jensen obtenemos: $$\exp\left(\frac{1}{2}\int_S^{S+\epsilon} X_t^2\,dt\right)=\exp\left(\frac{1}{\epsilon}\int_S^{S+\epsilon} \frac{\epsilon}{2}X_t^2\,dt\right)\leq \frac{1}{\epsilon}\int_S^{S+\epsilon} \exp\left(\frac{\epsilon}{2}X_t^2\right)\,dt \qquad a.s..$$

Ahora tomando la expectativa y usando el teorema de Tonelli tenemos que estudiar: $$\frac{1}{\epsilon}\int_S^{S+\epsilon} E\left[\exp\left(\frac{\epsilon}{2}X_t^2\right)\right]\,dt.$$

$X_t \sim N(\mu_t=X_0e^{-t}\,,\,\,\sigma_t^2=\frac{1-e^{-2t}}{2})$ así que $$E\left[\exp\left(\frac{\epsilon}{2}X_t^2\right)\right]=E\left[\exp\left(\frac{\epsilon}{2}(\mu_t+\sigma_tZ)^2\right)\right]=$$ $$=e^{\frac{\epsilon}{2}\mu_t^2}\int_{\mathbb{R}} \frac{1}{\sqrt{2 \pi}}\, \exp\left(-\frac{x^2}{2}(1-\sigma_t^2 \epsilon)+\epsilon \mu_t \sigma_t x\right)dx. $$ Configuración $\lambda_t=1-\epsilon \sigma_t^2=\frac{1}{2}[2-\epsilon(1-e^{-2t})]$ si $\lambda_t>0$ (por ejemplo con $\epsilon < 1$ ) la última integral es convergente y su valor es: $$\exp\left(\frac {\epsilon}{2}\mu_t^2\right)\,\exp\left(\frac{\epsilon^2}{2 \lambda_t}\mu_t^2 \sigma_t^2\right)\frac{1}{\sqrt{\lambda_t}}.$$

Finalmente todas las funciones implicadas son continuas y puesto que $\epsilon < 1$ , $\lambda_t$ se aleja de 0 y, por tanto, la función generadora de momentos es integrable.

Mi primera idea fue utilizar en lugar de $\epsilon$ $T$ pero la función generadora de momentos de la chi al cuadrado no está definida para alejarse de 0 sino sólo en una vecindad.

11voto

Reto Meier Puntos 55904

Creo que lo tengo resuelto.

Lema . Existe $\epsilon > 0$ tal que para cualquier $S \in [0,T]$ tenemos $$E\left[\exp\left(\frac{1}{2}\int_S^{S+\epsilon} X_t^2\,dt\right)\right] < \infty.$$

Prueba . Establecer $M = \sup_{[0, T+1]} |X_t|$ . Entonces $$E\left[\exp\left(\frac{1}{2}\int_S^{S+\epsilon} X_t^2\,dt\right)\right] \le E\left[\exp\left(\frac{\epsilon}{2} M^2\right)\right].$$ Por Teorema de Fernique existe $\epsilon$ lo suficientemente pequeño como para que éste sea finito. ( $X_t$ siendo un proceso gaussiano continuo, induce una medida gaussiana en el espacio de Banach $C([0,T+1])$ y $M$ es la norma en este espacio). Quizá haya también una forma más directa de conseguirlo.

Ahora usamos el Corolario 3.5.14 de Karatzas y Shreve, Movimiento browniano y cálculo estocástico cuya prueba parafrasearé. Sea $$Z_t = \exp\left(\int_0^t X_s\,dW_s - \frac{1}{2} \int_0^t X_s^2\,ds\right)$$ ser el proceso que tenemos que demostrar que es una martingala. $Z_t$ es una martingala local no negativa (por la fórmula de Itô), por lo que es una supermartingala (utilizando el lema de Fatou con una secuencia de tiempos de parada), por lo que basta con demostrar que $E[Z_t ]= 1$ para todos $t \in [0,T]$ . Procedemos por inducción. Supongamos que hemos demostrado $E[Z_t] = 1$ para $t \in [0,S]$ (el caso base es $S=0$ que es trivial). Sea $t \in [S, S+\epsilon]$ . Establecer $$Z_t^S = \exp\left(\int_S^t X_s\,dW_s - \frac{1}{2} \int_S^t X_s^2\,ds\right).$$ Por la condición de Novikov, $Z_t^S$ es una martingala para $t \in [S, S+\epsilon]$ . Ahora tenemos $$E[Z_t] = E[Z_S Z_t^S] = E[E[Z_S Z_t^S \mid \mathcal{F}_S]] = E[Z_S E[Z_t^S \mid \mathcal{F}_S]] = E[Z_S Z_S^S].$$ Pero $Z_S^S = 1$ por definición y $E[Z_S]=1$ por suposición. Así que tenemos $E[Z_t] = 1$ y esto es válido para cualquier $t \in [0, S+\epsilon]$ . Ahora sólo tenemos que repetir la inducción $T/\epsilon$ veces.

Parece que esto funcionaría para cualquier proceso gaussiano continuo $X_t$ Es bueno saberlo.

6voto

adl Puntos 7294

$X^2$ sigue una difusión de tipo CIR. Expresiones como las que se dan en Novikov pueden calcularse explícitamente y ver que son finitas al menos para t pequeño. Si $Z_t$ es una martingala para t pequeño Estoy seguro de que usando alguna combinación de positividad y la propiedad de markov se puede extender. El resultado aparece como prob 8.3.14 en Revuz & Yor, aunque sin solución ni pistas sustanciales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X