No hay realmente un problema con la toma de los derivados de los procesos estocásticos como $W$, mientras que interpretar el proceso resultante de manera apropiada. Incluso el habitual proceso de ruido blanco "$\xi = \frac{dW}{dt}$" que en realidad debería ser interpretado como un generalizado proceso estocástico, que es el de la realización de $\xi$ son funciones generales. Esto es porque - como estado - realizaciones de $W$ son casi seguramente diferenciable. Sin embargo, tienen derivados "en el sentido de las distribuciones" que es, la generalización de los derivados, y esta es una forma de atacar el problema (el Ito cálculo/diferenciales estocásticas forma $dW_t$ enfoque es otra manera). Si usted nunca ha visto la teoría generalizada de funciones (llamadas distribuciones en otros lugares, pero en la probabilidad de que la palabra tiene otro significado), el siguiente probablemente no tendrá mucho sentido para usted, pero así es como yo trabajo con estas cosas. Gel'fand y Vilenkin ("Funciones generales de Volumen IV") es el clásico de referencia para este enfoque, pero probablemente hay mejor modernos refs.
Para definir un generalizado proceso estocástico $\eta$, se fija un espacio de funciones de prueba - generalmente suave, compacta las funciones soportadas $\mathcal{D} = C_0^\infty$. A continuación, un generalizado proceso estocástico $\eta(\omega)$ es un elemento aleatorio de $\mathcal{D}^\prime$ (un mapa, $\eta:\Omega\rightarrow\mathcal{D}^\prime$ donde $(\Omega,\mathcal{F},\mathbb{P})$ es un espacio de probabilidad). Una forma mucho más conveniente para decir esto es que, dada cualquier función de prueba de $\varphi\in\mathcal{D}$, tenemos que
$$
X_\varphi = \langle \eta,\varphi\rangle
$$ is an ordinary real random variable. The bracket notation is intended to "look like" an inner product, i.e. you can think of $\langle \eta,\varphi\rangle = \int \eta(x)\varphi(x)dx$, though this isn't really correct because $\eta$ "no es una función".
La media y la covarianza se define como
$$
\langle\mathbb{E}[\eta],\varphi\rangle = \mathbb{E}[\langle\eta,\varphi\rangle] = \mathbb{E}[X_\varphi]
$$ y
$$
Cov(\varphi,\psi) = \mathbb{E}[X_\varphi X_\psi]
$$ De este, se puede extraer de la covarianza del operador a través de
$$
\mathbb{E}[X_\varphi X_\psi] = \langle \mathcal{C}\varphi,\psi\rangle
$ De$ esta fórmula es difícil de analizar hasta que el trabajo algunos ejemplos - los veremos en un segundo cómo funciona esto.
Volviendo a tu pregunta original: supongamos que queremos definir $\dot{W}$ utilizando este enfoque. Así, en la teoría de funciones generales, tenemos la definición de
$$
X_\varphi = \langle \dot{W},\varphi\rangle = - \langle W,\dot{\varphi}\rangle
$$The negative sign comes from "integration by parts". Now, because $W$ is (almost surely) continuous and $\dot{\varphi}$ es suave, se pueden usar las integrales en lugar de "resumen soportes":
$$
X_\varphi(\omega) = -\int_{-\infty}^\infty W(t,\omega)\dot{\varphi}(t) dt
$$ Mus (intercambiando los límites requiere un momento de la justificación):
$$
\mathbb{E}[X_\varphi(\omega)] = -\int_{-\infty}^\infty \mathbb{E}[W(t,\omega)] \dot{\varphi}(t) dt = 0
$$ y
$$
\mathbb{E}[X_\varphi(\omega)X_\psi(\omega)] = \int_{-\infty}^\infty\int_{-\infty}^\infty \mathbb{E}[W(s,\omega)W(t,\omega)] \dot{\varphi}(s)\dot{\psi}(t) dsdt = \int_{-\infty}^\infty\int_{-\infty}^\infty \min(s,t) \dot{\varphi}(s)\dot{\psi}(t) dsdt
$$ To see how this results in "$k(s,t) = \delta(s-t)$" covariance, you do a bit of calculus, remembering that $\varphi(s)$ and $\psi(t)$ es liso y compacto, compatible para todos los de la integración por partes límite de términos se desvanecen, y se ve que
$$
\int_{-\infty}^\infty\int_{-\infty}^\infty \min(s,t) \dot{\varphi}(s)\dot{\psi}(t) dsdt = \int_{-\infty}^\infty \varphi(t) \psi(t) dt
$$ Por lo tanto hemos escrito
$$
\mathbb{E}[X_\varphi X_\psi] = \langle \mathcal{C}\varphi,\psi\rangle
$$where $\mathcal{C}$ is the "identity operator", that is the convolution operator with kernel $\delta(s-t)$.
Si quieres hacer lo mismo, pero con $\ddot{W}$, usted podría comenzar con la definición de la generalizada ("distribución") segunda derivada:
$$
\langle\ddot{W},\varphi\rangle = \langle W,\ddot{\varphi}\rangle
$$ A continuación, puede trabajar a través del mismo proceso para ver que
$$
\langle\mathbb{E}[\ddot{W}],\varphi\rangle = \langle\mathbb{E}[W],\ddot{\varphi} \rangle = 0
$$ y
$$
\mathbb{E}[X_\varphi X_\psi] = \int_{-\infty}^\infty\int_{-\infty}^\infty\min(s,t) \ddot{\varphi}(s)\ddot{\psi}(t) dsdt = -\int_{-\infty}^\infty \ddot{\varphi}(t)\psi(t) dt = \langle \mathcal{C}\varphi,\psi\rangle
$$ Thus the covariance operator is the negative second derivative, i.e. the covariance kernel function is $-\ddot{\delta}(s-t)$.
Nota adicional En respuesta a un buen comentario, ¿cómo sabemos que los procesos de $\dot{W}$ $\ddot{W}$ son de Gauss? En primer lugar, un generalizado proceso aleatorio Gaussiano $\eta$ es uno para el cual cualquier vector aleatorio formado por las pruebas contra el $N$ funciones es (multivariante) de Gauss, es decir, si
$$
X_{\varphi_1:\varphi_N} = [\langle \eta,\varphi_1\rangle,\ldots,\langle \eta,\varphi_N\rangle ]^t \en \Bbb{R}^N
$$ then $\eta$ is Gaussian if and only if $X_{\varphi_1:\varphi_N}$ is Gaussian for every choice of $(\varphi_1,\ldots,\varphi_N)\in \mathcal{D}^N$. With this definition, it is easy to show that if $W$ is a classical Gaussian random process - say one with almost surely continuous paths such as the Wiener process - then $P$ es también un generalizado proceso aleatorio Gaussiano.
Entonces, Gaussianidad de la (generalizada) de los derivados de la $W$ sigue a partir de las definiciones
$$
\langle\dot{W},\varphi\rangle := - \langle W,\dot{\varphi}\rangle\\
\langle\ddot{W},\varphi\rangle := \langle W,\ddot{\varphi}\rangle
$$ Since $W$ is a generalized Gaussian R.P., $\dot{W}$ and $\ddot{W}$ son así.