4 votos

distribución conjunta de los procesos estocásticos

Deje $X_t$ ser una solución a la SDE, $dX_t=-aX_t \; dt+\sigma \; dW_t$, $a>0$, $\sigma>0$, $X_0=\text{constant}$ donde $W_t$ es Browniano. ¿Cuál es la distribución conjunta de $(X_t, \int_0^t X_s \; ds)$?

He calculado la solución a la SDE, he a $X_t=e^{-at}[X_0+\int_0^t \sigma e^{as} \; dW_s]$, Necesito también te $\int_0^t e^{-as}[X_0+\int_0^s \sigma e^{au} \; dW_u] \; ds$ pero no estoy seguro de cómo calcular que, y también la distribución de $(X_t, \int_0^t X_s \; ds)$

Gracias por su ayuda

También he demostrado que $X_t$ es una gaussiana , pero no estoy seguro de cómo encontrar la distribución de el segundo elemento en el vector.

3voto

Robert Christie Puntos 7323

Deje $Y_t = \int_0^t X_s \mathrm{d} s$.

El proceso de $Z_t = (X_t, Y_t)$ es también un proceso de Ito, con $\mathrm{d} Z_t = X_t (-a, 1) \mathrm{d} t + (\sigma, 0) \mathrm{d} W_t$ y la condición inicial $Z_0 = (x_0, 0)$.

El proceso de $Z_t$ es Gaussiano, determinó $X_t$ a ser de Gauss, y $Y_t$ es Gaussiano como un funcional lineal de $X_t$. Por lo tanto para determinar la distribución conjunta en el momento $t$, lo que uno necesita para calcular los $\mathbb{E}(Z_t)$$\mathbb{E}(Z_t \otimes Z_t )$.

Esto se lleva a cabo utilizando el lema de Ito. Deje $\tilde{X}_t = \mathrm{e}^{a t} X_t$$\tilde{Z}_t = ( \tilde{X}_t, Y_t )$. Entonces $\mathrm{d} \tilde{Z}_t = (0, X_t) \mathrm{d} t + ( \sigma \mathrm{e}^{a t}, 0 ) \mathrm{d} W_t$. Que es $\mathbb{E}(\tilde{Z}_t) = \mathbb{E}(\tilde{Z}_0) + \int_0^t (0, \mathrm{E}(X_s)) \mathrm{d} s $.

Que es el $\tilde{X}_t$ proceso de la martingala, por lo tanto $$ \mathbb{E}( \tilde{X}_t ) = \mathbb{E}( \tilde{X}_0 ) = \mathbb{E}( X_0 ) = x_0 $$ Por lo tanto, $\mathbb{E}(X_t) = x_0 \exp(-a t)$, y por el lema de Ito $\mathbb{E}(Y_t) = \int_0^t x_0 \exp(-a s) \mathrm{d} s = \frac{x_0}{a} \left(1 - \mathrm{e}^{-a t} \right) $.

Por el lema de Ito, de nuevo $$ \mathrm{d}( \tilde{X}_t^2, \tilde{X}_t Y_t, Y_t^2 ) = ( \mathrm{e}^{2 t} \sigma^2, \mathrm{e}^{t} X_t^2, 2 X_t Y_t ) \mathrm{d} t + \sigma ( \mathrm{e}^{2 t} X_t, \mathrm{e}^{t} Y_t, 0 ) \mathrm{d} W_t $$ Así $$ ( \mathbb{E}(\tilde{X}_t^2), \mathbb{E}(\tilde{X}_t Y_t), \mathbb{E}(Y_t^2) ) = ( x_0^2, 0, 0 ) + \int_0^t ( \sigma^2 \mathrm{e}^{2 s}, \mathrm{e}^{s} \mathbb{E}(X_s^2), 2 \mathbb{E}( X_s Y_s) ) \mathrm{d} s $$ Esto se traduce en $$ \begin{eqnarray} \mathbb{E}\left(X_t^2\right) &=& x_0^2 \mathrm{e}^{-2 a t} + \frac{\sigma^2}{2} \frac{1 - \mathrm{e}^{-2 a t}}{a} \\ \mathbb{E}\left(X_t Y_t\right) &=& x_0^2 \mathrm{e}^{-a t} \left( \frac{ 1-\exp(-a t)}{a} \right) + \frac{\sigma^2}{2} \left( \frac{ 1 - \exp(-a t)}{a} \right)^2 \\ \mathbb{E}\left(Y_t^2\right) &=& x_0^2 \left( \frac{ 1 - \exp(-a t)}{a} \right)^2 + \frac{\sigma^2}{2 a^3} \left( 2 a t - 4 \left( 1 - \mathrm{e}^{-a t} \right) + \left( 1 - \mathrm{e}^{-2 a t} \right) \right) \end{eqnarray} $$

Convertir el segundo momento en la central momentos, tenemos que la distribución conjunta de $Z_t$ es la distribución normal bivariante con los medios $$ (m_1(t), m_2(t)) = x_0 \left( \mathrm{e}^{-t}, \frac{1- \mathrm{e}^{-t}}{a} \right) $$ y la matriz de covarianza:

$$ \Sigma(t) = \sigma^2 \left(\begin{array}{cc} \frac{1-\mathrm{e}^{-2 a t}}{2 a} & \frac{1}{2} \left( \frac{1-\mathrm{e}^{-a t}}{a} \right)^2 \\ \frac{1}{2} \left( \frac{1-\mathrm{e}^{-a t}}{a} \right)^2 & \frac{4 e^{-a t}+2 a t-3-e^{-2 a t}}{2 a^3} \end{array} \right) $$


Añadido

: Aviso, que como $a$ se hace más pequeño de la matriz de covarianza de los enfoques, el resultado de esta pregunta relacionada con: $$ \Sigma(t) \sim \sigma^2 \left( \begin{array}{cc} t(1 - a t + o(a)) & \frac{1}{2}t^2 \left(1-a t + o(a)\right) \\ \frac{1}{2}t^2 \left(1-a t + o(a)\right) & t^3 \left( \frac{1}{3} - \frac{a t}{4} + o(a) \right) \end{array} \right) $$

2voto

Did Puntos 1

Para cada $t\geqslant0$, vamos a $Y_t=\int\limits_0^tX_s\mathrm ds$. Según lo explicado por @Sasha, $Z_t=(X_t,Y_t)$ es gaussiano, por tanto los valores $$ x(t)=\mathrm E(X_t),\quad y(t)=\mathrm E(Y_t),\quad u(t)=\mathrm E(X_t^2),\quad v(t)=\mathrm E(Y_t^2),\quad w(t)=\mathrm E(X_tY_t), $$ totalmente determinar su distribución. Para calcular estos, un método conveniente es considerar directamente las ecuaciones diferenciales ordinarias que las expectativas de las soluciones de ecuaciones diferenciales estocásticas resolver, de la manera siguiente.

En primer lugar, $(X_t)$ $(Y_t)$ resolver el sistema $X_0=x_0$, $Y_0=0$, y $$ \mathrm dX_t=-aX_t\mathrm dt+\sigma\mathrm dW_t,\quad \mathrm dY_t=X_t\mathrm dt, $$ y $(W_t)$ es una martingala de ahí $$ x'(t)=-ax(t),\quad y'(t)=x(t). $$ Ya se sabe que $x(0)=x_0$$y(0)=0$, este diferencial lineal del sistema determina $x(t)$ $y(t)$ por cada $t\geqslant0$.

En cuanto al segundo cantidades de la orden, primero vamos a recordar una forma general de la fórmula de Itô: para cada $n\geqslant1$, todos los reales valores de la función $\varphi$ definido en (un conjunto abierto de) $\mathbb R^n$, y cada una de las $n$ dimensiones de difusión de $(\xi_t)$, $$ \mathrm d\varphi(\xi_t)=\mathrm{grad}\, \varphi(\xi_t)\cdot\mathrm d\xi_t+\frac12H(\varphi)(\xi_t)\cdot\mathrm d\langle\xi\xi\rangle_t, $$ donde $\mathrm{grad}\, \varphi(\xi)$ es el gradiente de $\varphi$ $\xi=(\xi^i)_{1\leqslant i\leqslant n}$ por lo tanto $$ \mathrm{grad}\, \varphi(\xi_t)\cdot\mathrm d\xi_t=\sum\limits_{i=1}^n\partial_i\varphi(\xi_t)\mathrm d\xi^i_t, $$ y $H(\varphi)(\xi)$ es la matriz Hessiana de $\varphi$ $\xi$ por lo tanto $$ H(\varphi)(\xi_t)\cdot\mathrm d\langle\xi\xi\rangle_t=\sum\limits_{i=1}^n\sum\limits_{j=1}^n\partial^2_{ij}\varphi(\xi_t)\mathrm d\langle\xi^i,\xi^j\rangle_t. $$ Primera aplicación: para $\varphi(\xi)=(\xi)^2$ y $\xi_t=X_t$, $\mathrm d\langle X,X\rangle_t=\sigma^2\mathrm dt$ los rendimientos $$ \mathrm d(X_t^2)=2X_t\mathrm dX_t+\mathrm d\langle X,X\rangle_t=-2aX_t^2\mathrm dt+\mathrm d\text{(MG)}_t+\sigma^2\mathrm dt, $$ donde $\mathrm d\text{(MG)}_t$ es una martingala término cuyo valor es irrelevante. Por lo tanto $$ u'(t)=-2au(t)+\sigma^2. $$ Segunda aplicación: para $\varphi(\xi)=(\xi)^2$ y $\xi_t=Y_t$, $\mathrm d\langle Y,Y\rangle_t=0$ los rendimientos $$ \mathrm d(Y_t^2)=2Y_t\mathrm dY_t=2Y_tX_t\mathrm dt, $$ por lo tanto $$ v'(t)=2w(t). $$ Tercera aplicación: para $\varphi(\xi^1,\xi^2)=\xi^1\xi^2$ y $\xi_t=(X_t,Y_t)$, $\mathrm d\langle X,Y\rangle_t=0$ los rendimientos $$ \mathrm d(X_tY_t)=X_t\mathrm dY_t+Y_t\mathrm dX_t=X_t^2\mathrm dt-aX_tY_t\mathrm dt+\mathrm d\text{(MG)}_t, $$ por lo tanto $$ w'(t)=u(t)-aw(t). $$ Las tres ecuaciones diferenciales escrito anteriormente son de primer orden lineal del sistema en $(u(t),v(t),w(t))$. Desde $(u(0),v(0),w(0))=(x_0^2,0,0)$, los valores de $u(t)=\mathrm E(X_t^2)$, $v(t)=\mathrm E(Y_t^2)$ y $w(t)=\mathrm E(X_tY_t)$ seguir, por todos los $t\geqslant0$.

Para responder directamente el OP pregunta, uno puede también tener en cuenta las expectativas de $x(t)=\mathrm E(X_t)$ $y(t)=\mathrm E(Y_t)$ y escribir el sistema diferencial satisfecho por los elementos de la matriz de covarianza $C(t)=\mathrm E((X_t,Y_t)^T(X_t,Y_t))-(\mathrm E(X_t),\mathrm E(Y_t))^T(\mathrm E(X_t),\mathrm E(Y_t))$, es decir, $$ U(t)=\mathrm{var}(X_t)=u(t)-x(t)^2,\quad V(t)=\mathrm{var}(Y_t)=v(t)-y(t)^2, $$ y $$ W(t)=\mathrm{cov}(X_t,Y_t)=w(t)-x(t)y(t). $$ Uno se $$ U'(t)=-2aU(t)+\sigma^2,\quad V'(t)=2W(t),\quad W'(t)=U(t)-aW(t). $$ Junto con la condición inicial de que $U(0)=V(0)=W(0)=0$, esta totalmente determina la matriz de covarianza $C(t)=\begin{pmatrix}U(t) & W(t)\\ W(t) & V(t)\end{pmatrix}$ por cada $t\geqslant0$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X