16 votos

Función de densidad de probabilidad de la integral de un proceso estocástico continuo

Me interesa saber si existe un método general para calcular la pdf de la integral de un proceso estocástico que es continuo en el tiempo.

Mi ejemplo concreto: Estoy estudiando un proceso estocástico dado por

$X(t)=\int\limits_{0}^{t}\cos(B(s))\,\text{d}s$ ,

donde $B(t)$ es el proceso de Wiener, que se distribuye normalmente en un intervalo de longitud $\tau$ con media y varianza cero $\tau$ :

$B(t+\tau)-B(t)\sim\mathcal{N}(0, \tau)$ .

Soy capaz de calcular el primer y segundo momento de $X(t)$ ver: Valor esperado de un producto de una integral de Ito y una función de un movimiento browniano

Un par de reflexiones sobre el asunto:

1) Integrales de Gaussiano Los procesos estocásticos continuos, como el proceso de Wiener, pueden considerarse como el límite de una suma de gaussianos y, por tanto, son ellos mismos gaussianos. Dado que $\cos(B(s))$ es no Gaussian, esto no parece ayudar aquí.

2) Si podemos derivar una expresión para la función característica del proceso $X(t)$ , entonces podemos invertirlo teóricamente para obtener el pdf. La fórmula de Feynman-Kac nos permite describir la función característica en términos de una EDP. Si esta EDP tiene una solución analítica única, podemos utilizarla. En mi ejemplo concreto, éste no es el caso: la EDP obtenida no tiene solución analítica. Si es necesario, puedo dar más detalles sobre este punto.

Muchas gracias por sus reflexiones.

1 votos

¿Sigue interesado en esta cuestión?

0 votos

No lo estaba cuando me lo pediste (no tenía un momento libre para pensar en "cosas interesantes"), pero lo vuelvo a estar ahora, ¡si alguien ve esto!

3voto

user39756 Puntos 27

Puede utilizar un método computacional para aproximar con la mayor precisión posible la función de densidad de probabilidad de $I(t)=\int_0^t \cos(B(s))\,\mathrm{d}s$ . Lo haré por $0\leq t\leq 1$ .

Consideremos la expansión de Karhunen-Loève de $B(t)$ en $[0,1]$ : $$ B(t)=\sum_{j=1}^\infty \frac{\sqrt{2}}{\left(j-\frac12\right)\pi}\sin\left(\left(j-\frac12\right)\pi t\right)\xi_j, $$ donde $\xi_1,\xi_2,\ldots$ son independientes y $\text{Normal}(0,1)$ variables aleatorias distribuidas. La convergencia de la serie se mantiene en $L^2([0,1]\times\Omega)$ . Truncar $$ B_J(t)=\sum_{j=1}^J \frac{\sqrt{2}}{\left(j-\frac12\right)\pi}\sin\left(\left(j-\frac12\right)\pi t\right)\xi_j, $$ y definir $I_J(t)=\int_0^t \cos(B_J(s))\,\mathrm{d}s$ .

Es fácil comprobarlo:

  1. $I_J(t)\rightarrow I(t)$ en $L^2(\Omega)$ para cada $0\leq t\leq 1$ . De hecho, por la desigualdad de Cauchy-Schwarz, $\mathbb{E}[(I(t)-I_J(t))^2]\leq t\|B(t)-B_J(t)\|_{L^2([0,t]\times\Omega)}^2\rightarrow 0$ , como $J\rightarrow\infty$ .

  2. $I_J(t)\rightarrow I(t)$ casi con seguridad, para cada $0\leq t\leq 1$ . En efecto, para cada $\omega\in\Omega$ sabemos que $B_J(t)(\omega)\rightarrow B(t)(\omega)$ en $L^2([0,1])$ porque las series de Fourier deterministas convergen en $L^2$ . Desde $\cos$ es Lipschitz, $\cos(B_J(t)(\omega))\rightarrow \cos(B(t)(\omega))$ en $L^2([0,1])$ . Entonces $I_J(t)(\omega)\rightarrow I(t)(\omega)$ para cada $t\in[0,1]$ sigue.

Aunque estos dos hechos no son suficientes para tener que las funciones de densidad de $\{I_J(t):J\geq1\}$ tienden a la función de densidad de $I(t)$ tenemos que la función de densidad de $I_J(t)$ puede ser un muy buen candidato (recordemos que esto es un método computacional, no una prueba). Lo bueno de $I_J(t)$ es que está formado por un número finito de $\xi_j$ por lo que es posible obtener exactamente realizaciones de $I_J(t)$ . Y si generamos un número suficientemente grande $M$ de realizaciones de $I_J(t)$ entonces una estimación de la densidad del núcleo permite obtener una función de densidad aproximada para $I_J(t)$ .

He escrito una función en Mathematica para aproximar la distribución de $I(T)$ , para $0\leq T\leq 1$ utilizando un orden de truncamiento $J$ y una serie de simulaciones $M$ :

distributionIT[T_, J_, simulations_] := 
  Module[{realizationsIT, simulation, xi, BJ, distribution},
   realizationsIT = ConstantArray[0, simulations];
   For[simulation = 1, simulation <= simulations, simulation++,
    xi = RandomVariate[NormalDistribution[0, 1], J];
    BJ[t_] := 
     Sqrt[2]*Sum[
       Sin[(j - 0.5)*Pi*t]/((j - 0.5)*Pi)*xi[[j]], {j, 1, J}];
    realizationsIT[[simulation]] = NIntegrate[Cos[BJ[t]], {t, 0, T}];
    ];
   distribution = SmoothKernelDistribution[realizationsIT];
   Return[distribution];
   ];

Hagamos un ejemplo numérico. Elija $T=1$ . Escriba

distribution1 = distributionIT[1, 40, 50000];
plot1 = Plot[PDF[distribution1, x], {x, -2, 2}, Frame -> True, PlotRange -> All];
distribution2 = distributionIT[1, 50, 100000];
plot2 = Plot[PDF[distribution2, x], {x, -2, 2}, Frame -> True, PlotRange -> All];
Legended[Show[plot1, plot2], LineLegend[{Green, Blue}, {"J=40, M=50000", "J=50, M=100000"}]]

enter image description here

Trazamos la función de densidad estimada para $J=40$ , $M=50000$ y $J=50$ , $M=100000$ . No observamos diferencias, por lo que nuestro método proporciona una buena aproximación a la función de densidad de probabilidad de $I(1)$ .

Cálculos similares para $T=0.34$ dan la siguiente trama:

enter image description here

Si se traza la función de densidad aproximada para los más pequeños $T$ se verá que al final se obtiene un delta de Dirac en $0$ lo que concuerda con el hecho de que $I(0)=0$ casi seguro.

Observación: Los métodos computacionales son de uso constante en la investigación para aproximar las características probabilísticas de los procesos de respuesta a las ecuaciones diferenciales aleatorias. Véase, por ejemplo, [M. A. El-Tawil, Las soluciones aproximadas de algunas ecuaciones diferenciales estocásticas utilizando transformaciones , Applied Mathematics and Computation 164 (1) 167-178, 2005], [D. Xiu, Métodos numéricos para cálculos estocásticos. Un enfoque de método espectral , Princeton University Press, 2010], [L. Villafuerte, B. M. Chen-Charpentier, Un método de transformación diferencial aleatoria: Teoría y aplicaciones , Applied Mathematics Letters, 25 (10) 1490-1494, 2012].

1voto

Kai Sikorski Puntos 797

Bueno, el primer momento es relativamente sencillo. Si la integral existe entonces

$E[\int_a^b X(t) dh(t)] = \int_a^b E[X(t)]dh(t)$

Véase, por ejemplo, Grigoriu 3.69.

También, por ejemplo, Grigoriu 3.58

$E[ \int_a^b X(t) dt \int_a^b Z(t) dt] = \int_{[a,b]^2}E[X(u)Z(v)]du dv$

0 votos

Tengo expresiones para los dos primeros momentos usando un enfoque similar... pero a menos que sea posible derivar expresiones para un número arbitrario de momentos (de ahí el MGF), esto no ayuda con el pdf desafortunadamente. Si esto es posible, entonces tal vez podría invertir el MGF - pero parece poco probable que funcione bien?

0 votos

Lo siento, creo que no he leído bien tu pregunta. Pensé que querías los dos primeros momentos.

0 votos

@Gabriel, creo que se podría generalizar esa idea para obtener momentos arbitrarios. Probablemente sería difícil hacer las integrales en forma cerrada. ¿Realmente necesitas el pdf?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X