Dado un espacio de probabilidad $\Omega,$ el espacio de las funciones medibles cuadradas-integrables $\Omega \to \mathbb{R}^n$ ("vectores aleatorios") puede convertirse en un espacio vectorial sobre $\mathbb{R}$ de forma natural. Llama a este espacio $V.$ En teoría de la probabilidad, se procede a definir varios operadores sobre este espacio, como el operador de expectativa $E : V \to \mathbb{R}^n$ dado por $(X_1,X_2...,X_n) \mapsto (E(X_1),E(X_2)...,E(X_n))$ .
Sin embargo, profundizando un poco más en la teoría, empezamos a ver algunas propiedades de $E$ más agradable que la linealidad sobre $\mathbb{R}$ sugeriría por sí sola. Por ejemplo, para cualquier $k \times n$ matriz $A$ encontramos que $E(AX) = AE(X).$ Algo similar ocurre con el operador de covarianza bilineal $\mathrm{Cov} : V \to \mathbb{R}^{n \times n}$ . Por ejemplo, para cualquier $k \times n$ matrices $A$ y $B,$ encontramos $\mathrm{Cov}(AX,BY) = A\mathrm{Cov}(X,Y)B^T,$ donde $B^T$ denota la transposición de $B.$
En un nivel, uno puede ver esto como álgebra matricial (y esto puede ser todo lo que hay). Pero siempre me he inclinado a buscar una estructura algebraica más profunda que el álgebra matricial cuando veo matrices, así que me pregunto si hay una razón algebraica más profunda para esto. Por ejemplo, podríamos haber visto $V$ como módulo sobre $n \times n$ matrices, pero este enfoque no parece explicar las transposiciones y la generalización a $k \times n$ matrices con $k \neq n.$ Así que me pregunto si hay alguna estructura algebraica para $V$ en la que la "linealidad matricial" de la forma vista en $E$ y $\mathrm{Cov}$ se convierten en algo natural (¡y por tanto fácil de recordar!).