16 votos

¿Una interpretación geométrica de la independencia?

Consideremos el conjunto de variables aleatorias con media cero y segundo momento finito. Se trata de un espacio vectorial, y $\langle X, Y \rangle = E[XY]$ es un producto interno válido en él. Las variables aleatorias no correlacionadas corresponden a vectores ortogonales en este espacio.

Preguntas:

(i) ¿Existe una interpretación geométrica similar para las variables aleatorias independientes en términos de este espacio vectorial?

(ii) Una colección de variables aleatorias gaussianas conjuntas no están correlacionadas si y sólo si son independientes. ¿Es posible dar una interpretación geométrica para esto?

8voto

Pat Puntos 18943

Si dejamos el ámbito de los espacios de probabilidad abstractos y nos centramos en la probabilidad en los espacios de Banach, hay mucha geometría que aprovechar. He aquí un ejemplo.

Dejemos que $X$ sea un espacio de Banach, y sea $\mathbb P$ ser un Medida de probabilidad de Radon en $X$ tal que los funcionales lineales continuos son integrables al cuadrado (es decir $\int_X |f(x)|^2 ~d\mathbb P(x) < \infty$ para todos $f \in X^*$ ). Por ejemplo, $X = C([0,1])$ con medida de Wiener $\mathbb P$ .

Estas son condiciones suficientes para que exista una media $m \in X$ y el operador de covarianza $K : X^* \to X$ tal que $$\mathbb Ef = f(m) \qquad \mathrm{and} \qquad \mathbb E (fg) - f(m)g(m) = f(Kg)$$ para todos $f, g \in X^*$ . Se puede demostrar que

$$\mathbb P \left( m + \overline{KX^*} \right) = 1.$$

Bajo estos supuestos tan generales, la probabilidad se concentra en el subespacio afín generado por la media y la covarianza.

Referencia: Vakhania, Tarieladze y Chobanyan, <i>Distribuciones de probabilidad en espacios de Banach</i>

7voto

Flávio Amieiro Puntos 5872

(i) No, si le he entendido bien. Un espacio de Hilbert es tan simétrico que, dado que la ortogonalidad es necesaria pero no suficiente para la independencia, no hay nada más que buscar. Para ser precisos, cualquier conjunto de vectores ortogonales puede ser llevado a cualquier otro conjunto de vectores ortogonales de la misma cardinalidad mediante una transformación unitaria. (Bueno, para ser sinceros las dimensiones del complemento ortogonal también deben coincidir, pero eso no ayuda).

(ii) Si te refieres a la geometría vista en el espacio de Hilbert del que hablas, no, ya que la respuesta a (i) es no.

No puedo descartar la posibilidad de convertir estas respuestas "no" en respuestas "sí" añadiendo una cantidad suficiente de estructura al espacio, pero no creo que sea eso lo que estabas preguntando

6voto

EBGreen Puntos 981

Existe una interpretación de la independencia en el espacio de Hilbert, que se desprende de la interpretación de la expectativa condicional como una proyección ortogonal, aunque puede ser más complicada de lo que tenías en mente.

Digamos que su espacio de probabilidad subyacente es $(\Omega, \mathcal{F}, \mathbb{P})$ y escribir $L^2(\mathcal{F})$ para el espacio de Hilbert de ( $\mathcal{F}$ -medible) con varianza finita (con $\Omega$ y $\mathbb{P}$ entendido). Denote por $\sigma(X)$ el $\sigma$ -generada por la variable aleatoria $X$ . Ahora la expectativa condicional $\mathbb{E}[X|Y]$ es la proyección ortogonal en $L^2(\mathcal{F})$ de $X$ en el subespacio $L^2(\sigma(Y))$ de variables aleatorias que son $\sigma(Y)$ -Medible. $X$ y $Y$ son independientes si y sólo si $\mathbb{E}[f(X)|Y]=\mathbb{E}f(X)$ para cualquier función razonable $f$ . Las funciones $f(X)$ span $L^2(\sigma(X))$ .

Así que si ahora defino $L^2_0(\sigma(X))$ para ser las variables aleatorias de media 0 y varianza finita que son $\sigma(X)$ -medible, puedo decir: $X$ y $Y$ son independientes si $L^2_0(\sigma(X))$ es ortogonal a $L^2(\sigma(Y))$ en $L^2(\mathcal{F})$ .

5voto

Sergio Acosta Puntos 6450

Para la pregunta (i):

La independencia de $X$ $Y$ en este espacio es equivalente a la ortogonalidad de las familias de las variables se puede construir a partir de $X$$Y$.

Para cada uno de los conjuntos medibles $A,B \subset \mathbb R$, podemos construir indicador modificado variables$X_A,Y_B$, con una media de $0$ y finito segundo momento, de modo que la ortogonalidad de $X_A$ $Y_B$ significa que los eventos de $X\in A$ $Y \in B$ eventos son independientes.

$X_A = f_{X,A}(X)$ donde

$\begin{matrix} f_{X,A}(x) =& Prob(X \notin A), x \in A \\\ & -Prob(X \in A),x \notin A\end{matrix}$

y definimos $Y_B = f_{Y,B}(Y)$ igualmente.

$X$ $Y$ no tienen que ser miembros de este espacio para su uso. Incluso si $X$ no ha $0$ de media, o sea, cada variable $X_A$.

4voto

Will Puntos 76760

Esta es una observación bastante trivial, pero en ese espacio el criterio de independencia es que $(p\circ X, q \circ Y) = (p \circ X,1)(1,q \circ Y)$ para todas las funciones indicadoras medibles $p,q : \mathbb{R} \to \mathbb{R}$ (o para abstraerse ligeramente del espacio subyacente, $pp = p$ y $qq = q$ donde la multiplicación es puntual). No puedo ver ninguna analogía con la geometría de esta forma, pero parece claro que hay una diferencia fundamental con el tipo de geometría del espacio de Hilbert que has mencionado, ya que estamos cuantificando sobre toda una clase de objetos externos (las funciones indicadoras).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X