22 votos

Tiempo derivado del ruido blanco

Es sabido que el tiempo de derivados del proceso de Wiener $W(t)$ se define como ruido blanco $\xi(t)$ \begin{align} \xi(t) = \frac{dW}{dt} \end{align} Considerando $dW/dt$ de diferencia finita formulario \begin{align} \frac{dW}{dt} \approx \frac{1}{h} \Big[ W(t+h) - W(t) \Big] \end{align} y tome $h \to 0$, el libro "Una Introducción a la Estocástico Differenial Ecuación" por Lawrence C. Evans (Capítulo $3$) muestra que la estadística de $\xi(t)$ está dado por \begin{align} E[ \, \xi(t) \, ] =0, \quad \mathrm{and} \quad E[ \, \xi(t) \xi(s) \, ] = \delta(t-s) \end{align} que es lo que nos espera como un ruido blanco.

Mi Pregunta: Motivado por la derivación en ese libro, me preguntaba ¿por qué no podemos tomar la segunda vez derivado en proceso de Wiener (o tomar el tiempo derivativo en ruido blanco). Aquí está mi intento de tomar el tiempo derivado de ruido blanco y se derivan de la estadística correspondiente.

Definir $\eta(t) = [ \,\xi(t+h) - \xi(t) \, ] \, / \, h $ y tome $h \to 0$ en el último paso.

El valor esperado de $\eta(t)$: \begin{align} E[ \, \eta(t) \,] = \frac{1}{h} \Big\{ E[ \, \xi(t+h) \,] - E[ \, \xi(t) \,] \Big\} = 0 \end{align}

La covarianza de $\eta(t)$: \begin{align} E[ \, \eta(t) \eta(s) \,] &= \frac{1}{h^{2}} E \Bigg[ \Big( \xi(t+h) - \xi(t) \Big) \; \Big( \xi(s+h) - \xi(s) \Big) \Bigg] \\ &= \frac{1}{h^{2}} \; \Bigg[ E[\xi(t+h) \xi(s+h)] - E[\xi(t+h) \xi(s)] - E[\xi(t) \xi(s+h)] + E[\xi(t) \xi(s)] \Bigg] \\ &= - \frac{1}{h^{2}} \Big[ \delta(t-s+h) - 2\delta(t-s) + \delta(t-s-h) \Big] \\ &= - \frac{d^{2}}{dz^{2}} \delta(z) \Bigg|_{z = t-s} \qquad \mathrm{as} \quad h \to 0 \\ &= - \frac{2\delta(t-s)}{(t-s)^{2}} \end{align}

Parece que podemos definir de la $\eta(t)$ (el tiempo derivado de ruido blanco) con la anterior estadística. ¿Hay alguna falla en el anterior derivación ?

Seguimiento

En la ecuación diferencial estocástica (SDE), se suele denotar $dX_{t}$ en lugar de $dX/dt$ donde $X$ es una variable aleatoria. La SDE en realidad representa una ecuación integral. Sin embargo, en el campo de la física o de la dinámica no lineal, hemos visto con frecuencia que la notación como esta $dX/dt$ (tiempo de derivada de una variable aleatoria). En algunos documentos, incluso podemos ver el tiempo derivado de ruido blanco y eso me molesta mucho ya que yo siempre he escuchado que el tiempo derivado de ruido blanco es indefinido. Así que, ¿cuál es la razón fundamental de no definir un tiempo de derivada de una variable aleatoria ?

22voto

icurays1 Puntos 9121

No hay realmente un problema con la toma de los derivados de los procesos estocásticos como $W$, mientras que interpretar el proceso resultante de manera apropiada. Incluso el habitual proceso de ruido blanco "$\xi = \frac{dW}{dt}$" que en realidad debería ser interpretado como un generalizado proceso estocástico, que es el de la realización de $\xi$ son funciones generales. Esto es porque - como estado - realizaciones de $W$ son casi seguramente diferenciable. Sin embargo, tienen derivados "en el sentido de las distribuciones" que es, la generalización de los derivados, y esta es una forma de atacar el problema (el Ito cálculo/diferenciales estocásticas forma $dW_t$ enfoque es otra manera). Si usted nunca ha visto la teoría generalizada de funciones (llamadas distribuciones en otros lugares, pero en la probabilidad de que la palabra tiene otro significado), el siguiente probablemente no tendrá mucho sentido para usted, pero así es como yo trabajo con estas cosas. Gel'fand y Vilenkin ("Funciones generales de Volumen IV") es el clásico de referencia para este enfoque, pero probablemente hay mejor modernos refs.

Para definir un generalizado proceso estocástico $\eta$, se fija un espacio de funciones de prueba - generalmente suave, compacta las funciones soportadas $\mathcal{D} = C_0^\infty$. A continuación, un generalizado proceso estocástico $\eta(\omega)$ es un elemento aleatorio de $\mathcal{D}^\prime$ (un mapa, $\eta:\Omega\rightarrow\mathcal{D}^\prime$ donde $(\Omega,\mathcal{F},\mathbb{P})$ es un espacio de probabilidad). Una forma mucho más conveniente para decir esto es que, dada cualquier función de prueba de $\varphi\in\mathcal{D}$, tenemos que

$$ X_\varphi = \langle \eta,\varphi\rangle $$ is an ordinary real random variable. The bracket notation is intended to "look like" an inner product, i.e. you can think of $\langle \eta,\varphi\rangle = \int \eta(x)\varphi(x)dx$, though this isn't really correct because $\eta$ "no es una función".

La media y la covarianza se define como

$$ \langle\mathbb{E}[\eta],\varphi\rangle = \mathbb{E}[\langle\eta,\varphi\rangle] = \mathbb{E}[X_\varphi] $$ y

$$ Cov(\varphi,\psi) = \mathbb{E}[X_\varphi X_\psi] $$ De este, se puede extraer de la covarianza del operador a través de

$$ \mathbb{E}[X_\varphi X_\psi] = \langle \mathcal{C}\varphi,\psi\rangle $ De$ esta fórmula es difícil de analizar hasta que el trabajo algunos ejemplos - los veremos en un segundo cómo funciona esto.

Volviendo a tu pregunta original: supongamos que queremos definir $\dot{W}$ utilizando este enfoque. Así, en la teoría de funciones generales, tenemos la definición de

$$ X_\varphi = \langle \dot{W},\varphi\rangle = - \langle W,\dot{\varphi}\rangle $$The negative sign comes from "integration by parts". Now, because $W$ is (almost surely) continuous and $\dot{\varphi}$ es suave, se pueden usar las integrales en lugar de "resumen soportes":

$$ X_\varphi(\omega) = -\int_{-\infty}^\infty W(t,\omega)\dot{\varphi}(t) dt $$ Mus (intercambiando los límites requiere un momento de la justificación):

$$ \mathbb{E}[X_\varphi(\omega)] = -\int_{-\infty}^\infty \mathbb{E}[W(t,\omega)] \dot{\varphi}(t) dt = 0 $$ y

$$ \mathbb{E}[X_\varphi(\omega)X_\psi(\omega)] = \int_{-\infty}^\infty\int_{-\infty}^\infty \mathbb{E}[W(s,\omega)W(t,\omega)] \dot{\varphi}(s)\dot{\psi}(t) dsdt = \int_{-\infty}^\infty\int_{-\infty}^\infty \min(s,t) \dot{\varphi}(s)\dot{\psi}(t) dsdt $$ To see how this results in "$k(s,t) = \delta(s-t)$" covariance, you do a bit of calculus, remembering that $\varphi(s)$ and $\psi(t)$ es liso y compacto, compatible para todos los de la integración por partes límite de términos se desvanecen, y se ve que

$$ \int_{-\infty}^\infty\int_{-\infty}^\infty \min(s,t) \dot{\varphi}(s)\dot{\psi}(t) dsdt = \int_{-\infty}^\infty \varphi(t) \psi(t) dt $$ Por lo tanto hemos escrito

$$ \mathbb{E}[X_\varphi X_\psi] = \langle \mathcal{C}\varphi,\psi\rangle $$where $\mathcal{C}$ is the "identity operator", that is the convolution operator with kernel $\delta(s-t)$.

Si quieres hacer lo mismo, pero con $\ddot{W}$, usted podría comenzar con la definición de la generalizada ("distribución") segunda derivada:

$$ \langle\ddot{W},\varphi\rangle = \langle W,\ddot{\varphi}\rangle $$ A continuación, puede trabajar a través del mismo proceso para ver que

$$ \langle\mathbb{E}[\ddot{W}],\varphi\rangle = \langle\mathbb{E}[W],\ddot{\varphi} \rangle = 0 $$ y

$$ \mathbb{E}[X_\varphi X_\psi] = \int_{-\infty}^\infty\int_{-\infty}^\infty\min(s,t) \ddot{\varphi}(s)\ddot{\psi}(t) dsdt = -\int_{-\infty}^\infty \ddot{\varphi}(t)\psi(t) dt = \langle \mathcal{C}\varphi,\psi\rangle $$ Thus the covariance operator is the negative second derivative, i.e. the covariance kernel function is $-\ddot{\delta}(s-t)$.

Nota adicional En respuesta a un buen comentario, ¿cómo sabemos que los procesos de $\dot{W}$ $\ddot{W}$ son de Gauss? En primer lugar, un generalizado proceso aleatorio Gaussiano $\eta$ es uno para el cual cualquier vector aleatorio formado por las pruebas contra el $N$ funciones es (multivariante) de Gauss, es decir, si

$$ X_{\varphi_1:\varphi_N} = [\langle \eta,\varphi_1\rangle,\ldots,\langle \eta,\varphi_N\rangle ]^t \en \Bbb{R}^N $$ then $\eta$ is Gaussian if and only if $X_{\varphi_1:\varphi_N}$ is Gaussian for every choice of $(\varphi_1,\ldots,\varphi_N)\in \mathcal{D}^N$. With this definition, it is easy to show that if $W$ is a classical Gaussian random process - say one with almost surely continuous paths such as the Wiener process - then $P$ es también un generalizado proceso aleatorio Gaussiano.

Entonces, Gaussianidad de la (generalizada) de los derivados de la $W$ sigue a partir de las definiciones $$ \langle\dot{W},\varphi\rangle := - \langle W,\dot{\varphi}\rangle\\ \langle\ddot{W},\varphi\rangle := \langle W,\ddot{\varphi}\rangle $$ Since $W$ is a generalized Gaussian R.P., $\dot{W}$ and $\ddot{W}$ son así.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X