En primer lugar, tengo formación en ingeniería, por lo que las matemáticas fundamentales son la parte más difícil para mí del ejercicio.
Consideremos un proceso estocástico $x:\Omega \times T \in \mathbb{R}^n$ en $ T = \mathbb{Z}$ que es gaussiana, estacionaria y tiene una función de valor medio que es idéntica a cero.
- Demostrar que si la función de covarianza admite una representación de la forma, $W(t) = (BD_{+-}B^{-1})^t W(0)$ , donde $D_{+-} = \begin{pmatrix}I_{n_1} & 0\\0 & -I_{n_2} \end{pmatrix},n_1, n_2 \in \mathbb{N}$ , $n_1+n_2 =n,$ y $W(0), B\in\mathbb{R}^{n\times n}$ ambas matrices no singulares, que entonces el proceso es tanto un Markov y un proceso reversible en el tiempo.
- Demostrar que si el proceso es de Markov y el tiempo reversible que entonces la función de covarianza admite una representación como se describe en la parte 2.
Todavía estoy atascado en el primer ejercicio. A partir de diferentes proposiciones en el libro de texto/apuntes de clase ( se puede encontrar aquí , cuidado que es un documento de más de 500 páginas ), lo he reducido a esto, pero creo que me falta algo de feeling con el álgebra lineal.
Dado que el proceso gaussiano es estacionario, podemos utilizar la propiedad derivada de la proposición C.3.2 en la forma en que se establece en la página 398. La cual establece que la función de covarianza $W$ es \textit{para-simétrico}, o $W(t) = W(-t)^T \forall t \in T$ . Además, por la proposición C.3.4, podemos concluir que el proceso, tal como se ha proporcionado, es un proceso reversible en el tiempo. Donde la condición de reversibilidad temporal implica que $W(t) = W(-t) \forall t \in T$ que también se puede deducir del hecho de que $x$ es un proceso gaussiano cuya función de covarianza debe ser simétrica ( $W(t) = W(t)^T$ ), combinando esto con la proposición anterior nos da automáticamente $W(t) = W(-t)^T = W(-t)$ como se deduce de la proposición C.3.4.
¿Cómo es que el hecho de que $(BD_{+-}B^{-1})^t$ implica ahora que el sistema es un proceso de Markov (o como se indica en la segunda pregunta, ¿cómo implica un proceso de Markov $(BD_{+-}B^{-1})^t$ )?
Creo que esto podría ser útil, pero no veo cómo:
Cuando una proposición (C.3.6) del libro establece:
Dejemos que $x : × T \mathbb{R}^n$ sea un proceso gaussiano con $T = \mathbb{N}, x(t) G(0,Q_x(t))$ y la función de covarianza $W : T ×T \mathbb{R}^{n×n}$ . Supongamos que para todos los $t T, Q_x(t) > 0$ . Las siguientes afirmaciones son equivalentes:
- El proceso x es un proceso de Markov
- La función de covarianza $W$ satisface $W(t,s) = W(t,u)W(u,u)^{1}W(u,s), \forall s,u,t \in T \text{ such that } s<u<t$ .
Las pruebas de todas las proposiciones se encuentran en las notas de la conferencia, pero las he omitido para mayor claridad .
*EDIT: En los comentarios he encontrado algo nuevo*