7 votos

¿Una estructura algebraica más profunda para los vectores aleatorios?

Dado un espacio de probabilidad $\Omega,$ el espacio de las funciones medibles cuadradas-integrables $\Omega \to \mathbb{R}^n$ ("vectores aleatorios") puede convertirse en un espacio vectorial sobre $\mathbb{R}$ de forma natural. Llama a este espacio $V.$ En teoría de la probabilidad, se procede a definir varios operadores sobre este espacio, como el operador de expectativa $E : V \to \mathbb{R}^n$ dado por $(X_1,X_2...,X_n) \mapsto (E(X_1),E(X_2)...,E(X_n))$ .

Sin embargo, profundizando un poco más en la teoría, empezamos a ver algunas propiedades de $E$ más agradable que la linealidad sobre $\mathbb{R}$ sugeriría por sí sola. Por ejemplo, para cualquier $k \times n$ matriz $A$ encontramos que $E(AX) = AE(X).$ Algo similar ocurre con el operador de covarianza bilineal $\mathrm{Cov} : V \to \mathbb{R}^{n \times n}$ . Por ejemplo, para cualquier $k \times n$ matrices $A$ y $B,$ encontramos $\mathrm{Cov}(AX,BY) = A\mathrm{Cov}(X,Y)B^T,$ donde $B^T$ denota la transposición de $B.$

En un nivel, uno puede ver esto como álgebra matricial (y esto puede ser todo lo que hay). Pero siempre me he inclinado a buscar una estructura algebraica más profunda que el álgebra matricial cuando veo matrices, así que me pregunto si hay una razón algebraica más profunda para esto. Por ejemplo, podríamos haber visto $V$ como módulo sobre $n \times n$ matrices, pero este enfoque no parece explicar las transposiciones y la generalización a $k \times n$ matrices con $k \neq n.$ Así que me pregunto si hay alguna estructura algebraica para $V$ en la que la "linealidad matricial" de la forma vista en $E$ y $\mathrm{Cov}$ se convierten en algo natural (¡y por tanto fácil de recordar!).

1voto

Kevin P. Barry Puntos 190

Estás usando $A$ a Representar a dos operadores lineales diferentes: $A_V:V\rightarrow V$ y $A_{\mathbb{R}^n}:\mathbb{R}^n\rightarrow\mathbb{R}^n$ . Así que, lo que realmente ha demostrado es que $E(A_VX) = A_{\mathbb{R}^n}E(X)$ .

Tal vez el significado de $A_V$ y $A_{\mathbb{R}^n}$ tener la misma representación tiene más que ver con la independencia de los componentes de $E$ en $V$ que es lo que permite que los operadores lineales conmuten.

Como contraejemplo, tomemos otra matriz $B$ y definir $E^\prime:=E\circ B$ . En este caso, $AE^\prime(X)\neq E^\prime(AX)$ porque en general $AB\neq BA$ .

Como otro contraejemplo, supongamos que $V$ es un espacio de distribuciones sobre funciones infinitamente diferenciables en $\mathbb{R}$ y que $\frac{d}{dx}$ es nuestro operador lineal. En teoría podríamos crear alguna variable aleatoria $X$ donde $E(X)$ no es diferenciable, y por tanto $\frac{d}{dx}E(X)\neq E(\frac{d}{dx}X)$ .

El punto general es que su ejemplo de un operador lineal que conmuta con algún $V\rightarrow\mathbb{R}^n$ es un caso muy especial.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X