15 votos

Estocástico de las Integrales se me confunde; por Favor explique cómo calcular $\int W_sdW_s$ por ejemplo

He estado tratando de entender este tema, pero solo no.La lectura a través de mis notas de la conferencia y videos en línea sobre estocástico de integración, pero no puedo envolver mi cabeza alrededor de ella. La razón principal es, la notación/terminologías. Me parece muy muy confuso y vago; algunos parecen de intercambio de uno a otro, algunos no, por ejemplo "Ito de la integración" y "estocástico de la integración". Son la misma cosa? Diferentes?

Entiendo que mi pregunta es un poco larga, así que, si tedioso, por favor, omita el poco tratando de hacerme comprender las definiciones y sólo responder, con detalle, la extraídos trabajado ejemplo yo estoy teniendo problemas con los de abajo

Mis notas de la conferencia, básicamente, sólo tira cosas a mí de la nada diciendo "aquí está la definición. Quedo con ella, así que aquí está un ejemplo de" lo que no quiero seguir en todo, incluso con la definición.

En primer lugar, aquí es lo que mis notas definir como un "simple proceso de"

Estocástico pocess $(g_t)_{t \geq0}$ se dice simple si se tiene el siguiente formulario $g_t(\omega)=\sum_{i=0}^\infty g_i(\omega)1_{[t_i,t_{i+1})}(t)$. Donde $g_i$ son variables aleatorias adaptado a $t_i$.

Y "la integral estocástica"

$X_t = \int_0^tg_sdW_s := \sum_{i=0}^\infty g_i \times(W_{t_{i+1}\cdot t}-W_{t_i\cdot t})$ donde$a\cdot b$$min\{a,b\}$.

Aquí ya, me da un poco confundido; $X_t$ se denota como el estocástico integral, sino $X_t=X(t)$ como yo lo entiendo, este TAMBIÉN es un proceso estocástico de la misma? Y lo que es $dW_s$? ¿Qué es esta variable $s$? Es una variable de tiempo? Entonces ¿no $W_s$ una función(de $s$)? Entonces, a diferencia de $dx$, $dy$, me siento muy incómoda con $dW_s$. Como, no puedo expresar este deinition en palabras sensatez; "$X_t$ es un proceso estocástico que es una parte integral de un proceso simple $g_t$ con respecto al movimiento Browniano $W_s$ más de $0,t$....."? Pero, ¿qué es $\omega $ $g_t(\omega)$ en la primera definición, entonces? $g_t$ no es una función de $W_s$, es una función de $\omega$(lo que sea).

Así que estas son las cosas que acaba de seguir en mi cerebro cuando veo esto. Ahora aquí está un ejemplo que estoy muy perdido.

Encontrar $\int_0^T W_sdW_s$ donde $W_s$ se supone que es un movimiento Browniano.

Aquí está el trabajo interrumpido con mi voiceover

El Ito integrable proceso de $g_s$ puede ser aproximada por tomar una partición o$[0,T]$$0=t_0<t_1<...<t_n=T$. Deje $t_i-t_{i-1}=\frac{T}{n}$ y la definición de un simple proceso de $g_t^n= \sum_{i=0}^{n-1} g_{t_i}1_{[t_i,t_{i+1})}(t)$.

P. voy a aceptar que "puede ser aproximada" como un hecho. Pero, ¿qué $g_t^n$ significa? $g_t=g(t)$ a la potencia de $n$? ¿Cómo es esto de alguna manera igual a la simple proceso definido anteriormente? Y por qué es esto $n-1$ e no $n$ o $\infty$?

Donde $t_i=i\frac{T}{n}$. Siempre vamos a la suma de$0$$n-1$.

P. ¿de Nuevo ¿por qué razón?

Deje $\Delta W_i=W_{t_{i+1}}-W_{t_i}$. entonces la integral es$n \rightarrow \infty$$\sum_iW_{t_i} \Delta W_i$.

P: estoy tratando de comprobar aquí; de Acuerdo a la definición de proceso estocástico de integración, en este caso $g_i$ se sustituye $W_{t_i}$...? Aunque ¿por qué $t_i$ e no $i$ como en la definición?

Comenzamos por observar que $W_T^2=\sum_i(W_{t_{i+1}}^2-W_{t_i}^2)$

P. ¿por Qué $W_T^2$ en particular? ¿De dónde surgió esta "plaza" salir de? Y es este $T$...$\infty$? Debido a que es donde estamos tendiendo $n$ a, sí? ¿Y esto de la igualdad de los RHS? Estoy teniendo problemas para algebraicamente mostrando que esto es igual.

el uso de la identidad de $(a-b)b=\frac{1}{2}(a^2-b^2-(a-b)^2)$, se obtiene, $\sum_i(W_{t_{i+1}}-W_{t_i})^2+2 \sum_i W_{t_i}(W_{t_{i+1}}-W_{t_i})$.

Y el resto de la siguiente manera si entiendo lo que está ahí. Y esta pregunta es demasiado larga, así que voy a parar aquí. Por favor alguien puede ayudarme a entender? Muchas gracias

21voto

user36150 Puntos 8

Puesto que usted tendrá un montón de preguntas, mi respuesta va a ser incluso mayor que el tuyo :). (A lo largo de mi respuesta voy a usar $a \wedge b := \min\{a,b\}$ para denotar el mínimo de$a$$b$.)

"Itô integración" y la "integración estocástica"

En realidad Itô la integración es una forma particular de integración estocástica. También hay otras formas de definir las integrales estocásticas. Sin embargo, en cierto sentido, la integral de Itô es LA integral estocástica (en el sentido de que es una de la más importante(s)).

$X_t$ se denota como el estocástico integral, sino $X_t = X(t)$ como yo lo entiendo, este también es un proceso estocástico de la misma?

Sí, eso es correcto. Para cada uno de ellos fijo $t \geq 0$,

$$X_t(\omega) = \left( \int_0^t g_s \, dW_s \right)(\omega)$$

es una variable aleatoria y la familia de variables aleatorias $(X_t)_{t \geq 0}$ es un proceso estocástico.

Y lo que es $dW_s$?

Bueno, primero de todo, es simplemente una notación (sí, sé que no te gusta de aquí). Definimos $$\int_0^t g_s \, dW_s := \sum_{i} g_i (W_{t_{i+1} \wedge t}-W_{t_i \wedge t}), \tag{1}$$ de modo que el lado izquierdo es sólo una notación que hemos introducido para acortar las cosas.

¿Qué es esta variable $s$? Es una variable de tiempo?

Sí. Si usted quiere conseguir un poco más cómodo con esto, entonces eche un vistazo a Riemann-Stieltjes integrales; estas son las integrales de la forma

$$\int_0^t h(s) \, df(s)$$

para "agradable" funciones " $h$ donde $f:[0,\infty) \to \mathbb{R}$ es una función de variación acotada (todo esto es determinista, sin depender de las $\omega$!); en particular, para el paso de las funciones de la forma

$$h(t) = \sum_{i=1}^n c_i 1_{[t_i,t_{i+1})}(t)$$

esta integral es (definido como)

$$\int_0^t h(s) \, df(s) = \sum_{i=1}^n c_i (f(t_{i+1} \wedge t) - f(t_i \wedge t)).$$

Para $f(t) = t$ esto produce que el estándar de la integral de Riemann. Por otro lado, si nos formalmente enchufe $f(t) := W_t(\omega)$ $h(t) :=g(t,\omega)$ fijos $\omega$ esto da $(1)$. (Nota: Esto es sólo una motivación por qué definimos la integral de la $(1)$ como lo hacemos. La integral de Itô es no una de Riemann-Stieltjes integral.)

Pero, ¿qué es $\omega$ $g_t(\omega)$

Bueno, esperamos que usted sabe los fundamentos de la teoría de la probabilidad...? $\Omega$ denota la probabilidad subyacentes espacio y, como de costumbre, $\omega \in \Omega$ es un elemento de este espacio. Que los modelos de la aleatoriedad. (Tenga en cuenta que $g_t$ es nuevamente un proceso estocástico.)

¿Qué $g_t^n$ significa? $g_t = g(t)$ a la potencia de $n$?

No, no el poder; sólo una notación. Como está escrito allí nos definen

$$g_t^n(\omega) := \sum_{i=0}^{n-1} g_{t_i} 1_{[t_i,t_{i+1})}(t), \tag{2}$$

es decir, usamos la notación $g_t^n$ para denotar el simple proceso definido por (2). Si usted está confundido por esto, a continuación, utilice siempre la notación $g(t)$ en lugar de $g_t$, porque entonces podemos definir

$$g_n(t,\omega) := \sum_{i=0}^{n-1} g_{t_i} 1_{[t_i,t_{i+1})}(t). \tag{3} $$

(Espero que no sean incluso más confundido. Básicamente, el problema es que tenemos que poner el índice de $n$ en algún lugar y si utilizamos el índice inferior para el tiempo, entonces la única posibilidad es el uso de la parte superior del índice).

¿Por qué es esto $n-1$ e no $n$ o $\infty$?

Estamos interesados en la integral estocástica $\int_0^T W_s \,dW_s$, ¿verdad? Así que queremos definir una aproximación de la función de $g(t,\omega) := W_t(\omega)$$[0,T]$. Si se consideran los intervalos de $[t_i,t_{i+1})$, $i=0,\ldots,n-1$, a continuación, puede ver que se cubra el intervalo de $[0,T]$. Por eso es elegido de esta manera.

Aunque ¿por qué $T_i$ e no $i$ como en la definición?

Usted está confundiendo varias cosas, la $g$ tenemos en este ejemplo y el $g$ a partir de su definición de la integral de Itô. Deje que me acaba de escribir la definición y, a continuación, vas a entender. Nuestra definición establece que si $h$ es un proceso simple de la forma

$$h(t,\omega) = \sum_{i \geq 0} h_i(\omega) 1_{[t_i,t_{i+1})}(t) \tag{4}$$

entonces

$$\int_0^t h(s) \, dW(s) := \sum_{i \geq 0} h_i (W_{t_{i+1} \wedge t}-W_{t_i \wedge t}). \tag{5}$$

Ahora, para fijo $n \in \mathbb{N}$, nuestra aproximación simple proceso de $g_t^n$ (ver $(3)$) es de la forma $(4)$ donde $h_i := g_{t_i} = W_{t_i}$. Por nuestra definición $(5)$ esto da el resultado reivindicado.

Por qué $W_T^2$ en particular? [...] Y es esta $T=\infty$?

No, $T$ no $\infty$! Justo en el comienzo de su ejemplo, usted declaró a su problema:

Encontrar $\int_0^T W_s \, dW_s$

y aquí $T>0$ es algún número real fijo. Este es el mismo número fijo que sigue apareciendo a lo largo de toda la prueba.

$W_T^2 = \sum_{i=0}^{n-1} (W_{t_{i+1}}^2-W_{t_i}^2)$

Eso es sólo una suma telescópica.

$$\begin{align*} \sum_{i=0}^{n-1} (W_{t_{i+1}}^2-W_{t_i}^2) &= (W_{t_1}^2-W_{t_0}^2) + (W_{t_2}^2-W_{t_1}^2) + \ldots+ (W_{t_n}^2-W_{t_{n-1}}^2) \\ &= W_{t_{n}}^2 - W_{t_0}^2 = W_T^2 \end{align*}$$

desde $t_n = T$ $W_{t_0} = W_0 = 0$ (debido a $(W_t)_t$ es un movimiento Browniano).

8voto

Andy Puntos 21

saz, la respuesta es muy conceptualmente útil. Me gustaría añadir que la forma en que por lo general se analíticamente calcular las integrales estocásticas es explotar Ito de la fórmula de una manera inteligente. Esto se parece mucho a la integración por sustitución. Por ejemplo, para calcular el $\int_0^t W_s dW_s$, supongo que por analogía con el ordinario de cálculo que la respuesta podría ser $\frac{1}{2} W_t^2$. Luego Ito fórmula indica que

$$\frac{1}{2} W_t^2 = \int_0^t W_s dW_s + \frac{1}{2} t.$$

Este término es a veces llamado el "Ito término de corrección". Una forma intuitiva de ver es que el lado izquierdo tiene la expectativa $\frac{t}{2}$, mientras que el primer término en el lado derecho siempre tiene la expectativa de cero. Que es aproximadamente porque es un límite de combinaciones lineales de media cero Gaussianas. (Sin embargo, los coeficientes son aleatorios. El Ito convención, en donde el integrando es evaluado en el extremo izquierdo, y el uso de los "no-anticipando" integrands nos permiten conseguir alrededor de este tecnicismo.)

Por lo tanto, algo con la expectativa de $\frac{1}{2} t$ necesidades para obtener agregado; resulta que sólo es $\frac{1}{2} t$ en este caso en particular.

Como resultado de esto,

$$\int_0^t W_s dW_s = \frac{1}{2} \left ( W_t^2 - t \right ).$$

6voto

CR Drost Puntos 854

Esta es una especie de "comentario extendido" en lugar de una respuesta directa a todas sus preguntas; sus preguntas todos parecen girar en torno a "¿qué diablos estamos haciendo aquí, ¿de verdad?!" y mientras @saz tiene mi upvote para responder pacientemente cada una de sus inquietudes, me siento como el espíritu de la pregunta es, quizás, todavía abierto.

La primera cosa a decir es que el ruido -- estocástico de matemáticas - es acerca de hacer el cálculo con altamente no-funciones diferenciables. Si tienes algún tipo de circuito eléctrico, puede describir las ecuaciones diferenciales que gobiernan, pero si la señal de entrada en este extremo es ruidoso, entonces eso significa que las ecuaciones diferenciales no le puede dar la respuesta apropiada con el estándar de cálculo.

Cumulants, Sumas de Variables Aleatorias, del Límite Central Thm.

En primer lugar vamos a brisa a través de un montón de clásicos de la probabilidad, porque quiero introducir el hecho de que la varianza es pseudo-lineal, pero es una forma mucho más general de la historia.

Supongamos que tenemos una variable aleatoria $X$ distribuido con algunos PDF $f(x),$, entonces la transformada de Fourier de PDF que se llama su función característica, $$f[k] = \langle e^{-2\pi ikX}\rangle = \int_{-\infty}^{\infty}dx~f(x)~e^{-2\pi i k x}.$$ Si $Z = X + Y$ donde $X$ $Y$ son independientes, y $Y$ ha PDF $g(y)$$Z$, por tanto, ha PDF $h(z),$ luego resulta que tenemos $h[k] = f[k]~g[k].$, por Tanto, el logaritmo de una transformada de Fourier de un PDF es pseudo-lineal, en el sentido de que es lineal en variables aleatorias independientes.

La serie de Maclaurin de este logaritmo es el cumulant de expansión $$\log f[k] = 0 + \mu~(-2\pi i k) + \frac12~\sigma^2~(-2\pi i k)^2 + \dots = \sum_{n=1}^{\infty} \kappa_n ~ {(-2\pi i k)^n \over n!}.$$Each cumulant is likewise pseudo-linear. You can get some special cases by simply expanding out the terms individually, for example, the first derivative is $f'[k]/f[k]$ and at $k=0$ this is $\langle -2 \pi i X\rangle$ so $\mu = \langle X \rangle,$ while the second derivative is $(f[k]~f"[k] - f[k]~f'[k])/f[k]^2$ which is $(-2\pi i)^2 \big(\langle X^2\rangle - \langle X \rangle^2\big).$ Así que los dos primeros cumulants son la media y la varianza.

Además de la escala de la $X \mapsto \alpha X$ podemos ver que $\langle e^{-2\pi i k \alpha X}\rangle = f[\alpha k]$, por lo que el efecto es el mapa de la cumulants cada una de las $\kappa_n \mapsto \alpha^n \kappa_n.$, de Modo que nuestra ley de escala.

El efecto combinado de estos es una de las maneras más fáciles de ver el teorema central del límite: la suma de $Z = \sum_{m=1}^M X_m/M,$ para los independientes, idénticamente distribuidas $X_m$ va a tener cumulants $\kappa_n / M^{n-1},$ uno $M$ proveniente de pseudo-linealidad y el resto de la $M^{-n}$ proveniente de esta ley de escala. Mantener sólo los dos principales términos le da la media y la desviación estándar, y todos los demás cumulants son cero, pero esto cuadrática logaritmo es característico de una Gaussiana función característica, y la transformada de Fourier de una Gaussiana es una Gaussiana, por lo que obtener una distribución de probabilidad Gaussiana.

A partir de pseudo-lineal de la varianza para el paseo aleatorio.

Así que ahora si nos imaginamos una fuente de ruido que es un límite de un paseo aleatorio proceso, la suma de un montón de pasos en direcciones al azar sobre infinitesimal veces, sabemos que el corto de autocorrelación tiempo de los pasos que lleva a esta suma de la señal con una varianza proporcional a la duración. (En otras palabras, tenemos $N$ pasos independientes, ya que la varianza es pseudo-lineal de la varianza crece de forma proporcional a $N$, pero al mismo tiempo sabemos que para este paseo, $N$ crece linealmente con $t$, por lo que la varianza de las necesidades para ir proporcional al intervalo de tiempo de la caminata.) Así, podemos describir un montón de cosas diferentes, si partimos de una perfecta fuente de ruido blanco donde $dW$ es de alguna unidad poco de ruido con cero significa que obedece a la heurística de la ecuación de $dW^2 = dt$ -- todo lo demás es aditivo constantes y tal. $dW$ es a menudo llamado un proceso de Wiener o el movimiento Browniano, y es la integral de un "ruido blanco Gaussiano" fuente. También podemos imaginar que de orden superior, los diferenciales son esencialmente nada, como el Teorema Central del Límite nos dice que el orden superior cumulants desaparecer de todos modos, dejando a la distribución de Gauss.

Paso atrás y pensar acerca de cómo tenemos que pensar acerca de este paseo aleatorio $dW.$ En la práctica, la necesitamos para ser también una función con respecto al tiempo, $dW(t).$ Matemáticos, por alguna razón, generalmente escribo esto como un sufijo, $dW_t;$ físicos son más cómodo con la escritura con el paréntesis. Entonces tenemos que el estocástico incremento en una variable $X$ más de un paso de tiempo es igual para algunos el ruido aleatorio con una desviación estándar $\sigma(t)$ e decir $\mu(t),$ o:$$dX_t = \sigma_t ~ dW_t + \mu_t ~ dt.$$ Esta $X$ es conocido como un "proceso de Itô." La clave de resultado de dichos procesos, lo cual es el mismo que el de nuestros heurística $dW_t^2 = dt$ por encima, se llama Itô el lema: vamos a $f(x, t)$ ser dos veces diferenciable y aplicarlo término a término para el tiempo de la secuencia de $X_t,$ el resultado transformado secuencias es otro proceso de Itô, y su correspondiente estocástico ecuación es:$$\begin{align}df(X_t, t) \approx&~ f(X_t + dX_t, t + dt) - f(X_t, t)\\ \approx&~ f(X_t, t) + \frac{\partial f}{\partial t} ~dt + \frac{\partial f}{\partial x}~dX_t + \frac12~\frac{\partial^2 f}{\partial x^2} dX_t^2 - f(X_t) \end{align}$$Keeping terms to order $dt$ with our heuristic rule $dW = \sqrt{dt}$ gives:$$ df(X_t, t) = \left(\frac{\partial f}{\partial t} + \frac{\partial f}{\partial x}~\mu_t + \frac12~\frac{\partial^2 f}{\partial x^2} ~\sigma_t^2\right)~dt + \sigma_t~ \frac{\partial f}{\partial x} ~dW_t.$$Esto puede ser visto como una modificación de la regla de la cadena para hacer que se aplican incluso cuando estamos lidiando con estas funciones diferenciables.

De álgebra para las simulaciones por ordenador.

Así que no resulta ser otra manera de hacer el cálculo estocástico que conserva la regla de la cadena, llamada la integral de Stratonovich, y en él se conserva la regla de la cadena. ¿Por qué hemos de utilizar este torpe Itô formalismo con su roto la regla de la cadena?!

Bueno, pues resulta ser una de esas cosas donde hay una especie de montón de diferentes criterios, y es imposible satisfactoriamente llegar a todos ellos a la derecha. Lo Itô hace que Stratonovich es malo, es que una vez que usted tiene el Itô ecuación diferencial, se tiene la simulación por ordenador. Esto es muy poderoso. La declaración formal de esto está dado por la integral de Itô: elegir una integración de malla de $N$ puntos en el tiempo $t_n$, $T = t_N.$ $$\int_0^T H(\tau)~dW(\tau) = \lim_{N \to \infty} ~ \sum_{n=1}^N ~ H(t_n) \cdot \big(W(t_n) - W(t_{n-1})\big).$$(el límite sólo funciona, por supuesto, si el tamaño máximo de la malla se reduce a 0 los puntos que ir hasta el infinito...)

En otras palabras, si se utiliza una lo suficientemente fina malla, usted puede simular esto mediante la adopción de paseo aleatorio pasos de el tamaño adecuado (aleatoria Gaussiana variables con desviación estándar $\sqrt{t_n - t_{n-1}}$) y resumiendo su respuesta agregada.

Así que una vez que se conoce el diferencial de las ecuaciones de trabajo, utilice esta $dW = \sqrt{dt}$ heurística para poner un poco de ruido a través de ellos, a mantener los principales términos en $dt,$ y, a continuación, usted sabe cómo el resultado responde a un determinado perfil de ruido.

Luego de ejecutar miles de simulaciones con el ordenador para ver lo que en realidad surge, por ejemplo, la duración de su turbinas de viento último bajo un realista ruidoso carga de velocidades de viento.

Donde el campo se va de allí.

Si usted trabaja en aplicar las matemáticas o las ciencias físicas, a continuación, usted desea determinar cómo este ruido se ve en el espectro de frecuencia, cómo los otros espectros de ruido entrar en la integral, y usted puede tener que lidiar con un discreto contador o así donde $dN$ debe ser 0 o 1, y generalmente la suma de ese proceso se verá como un proceso de Poisson, todas esas cosas buenas. Por lo que el proceso de Wiener es solo nuestra más fáciles de manejar la fuente de ruido, pero no necesariamente nuestra única concebible. El estudio de los $dN$ incrementos de entonces se convierte en una tarea para la "teoría de colas."

Luego hay cosas como la teoría de control, donde se inicia tratando de averiguar cuál es el óptimo de los parámetros de control de un sistema que tiene un ruidoso de entrada, como un mercado de valores, o de un sistema cuántico.

Y puede que también una especie de salto en el extremo profundo de la teoría, el fallecido Paul Malliavin forjado nueva tierra (creo que en los años 70 y 80?) por generalizar el cálculo de las variaciones de un punto de vista estocástico contexto, con lo cual hemos descubierto que usted puede hacer estocástico integración por partes y un tipo llamado Anatoliy Skorokhod descubierto que una generalización de la integral de Itô es también el infinito-dimensional vector divergencia operador.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X