18 votos

¿Una interpretación geométrica de la independencia?

Consideremos el conjunto de variables aleatorias con media cero y segundo momento finito. Se trata de un espacio vectorial, y $\langle X, Y \rangle = E[XY]$ es un producto interno válido sobre él. Las variables aleatorias no correlacionadas corresponden a vectores ortogonales en este espacio.

Preguntas:

(i) ¿Existe una interpretación geométrica similar para variables aleatorias independientes en términos de este espacio vectorial?

(ii) Una colección de variables aleatorias gaussianas conjuntamente no están correlacionadas si y sólo si son independientes. ¿Es posible dar una interpretación geométrica a esta afirmación?

11voto

EBGreen Puntos 981

Existe una interpretación de la independencia en el espacio de Hilbert, que se deriva de la interpretación de la expectativa condicional como proyección ortogonal, aunque puede ser más complicada de lo que tenías en mente.

Digamos que su espacio de probabilidad subyacente es $(\Omega, \mathcal{F}, \mathbb{P})$ y escribe $L^2(\mathcal{F})$ para el espacio de Hilbert de ( $\mathcal{F}$ -medibles) con varianza finita (con $\Omega$ y $\mathbb{P}$ entendido). Denotemos por $\sigma(X)$ el $\sigma$ -generada por la variable aleatoria $X$ . Ahora la expectativa condicional $\mathbb{E}[X|Y]$ es la proyección ortogonal en $L^2(\mathcal{F})$ de $X$ en el subespacio $L^2(\sigma(Y))$ de variables aleatorias que son $\sigma(Y)$ -medible. $X$ y $Y$ son independientes si y sólo si $\mathbb{E}[f(X)|Y]=\mathbb{E}f(X)$ para cualquier función razonable $f$ . Las funciones $f(X)$ span $L^2(\sigma(X))$ .

Así que si ahora defino $L^2_0(\sigma(X))$ como variables aleatorias de media 0 y varianza finita que son $\sigma(X)$ -mensurable, puedo decir: $X$ y $Y$ son independientes si $L^2_0(\sigma(X))$ es ortogonal a $L^2(\sigma(Y))$ en $L^2(\mathcal{F})$ .

5voto

Flávio Amieiro Puntos 5872

(i) No, si le he entendido bien. Un espacio de Hilbert es tan simétrico que, dado que la ortogonalidad es necesaria pero no suficiente para la independencia, no hay nada más que buscar. Para ser precisos, cualquier conjunto de vectores ortogonales puede trasladarse a cualquier otro conjunto de vectores ortogonales de la misma cardinalidad mediante una transformación unitaria. (Bueno, para ser honestos las dimensiones del complemento ortogonal también deben coincidir, pero eso no ayuda).

(ii) Si te refieres a la geometría vista en el espacio de Hilbert del que hablas, no, ya que la respuesta a (i) es no.

No puedo descartar la posibilidad de que estas respuestas "no" se conviertan en respuestas "sí" añadiendo suficiente estructura al espacio, pero no creo que sea eso lo que preguntaba

5voto

Sergio Acosta Puntos 6450

Para la pregunta (i):

Independencia de $X$ y $Y$ en este espacio es equivalente a la ortogonalidad de familias de variables que podemos construir a partir de $X$ y $Y$ .

Para cada conjunto medible $A,B \subset \mathbb R$ podemos construir variables indicadoras modificadas $X_A,Y_B$ con media $0$ y segundo momento finito de modo que la ortogonalidad de $X_A$ y $Y_B$ significa que los acontecimientos $X\in A$ y $Y \in B$ son acontecimientos independientes.

$X_A = f_{X,A}(X)$ donde

$\begin{matrix} f_{X,A}(x) =& Prob(X \notin A), x \in A \\\ & -Prob(X \in A),x \notin A\end{matrix}$

y definimos $Y_B = f_{Y,B}(Y)$ de forma similar.

$X$ y $Y$ no tienen que ser miembros de este espacio para utilizarlo. Aunque $X$ no tiene $0$ media, o cualquier media, de cada variable $X_A$ lo hace.

5voto

Pat Puntos 18943

Si se sale del ámbito de los espacios de probabilidad abstractos y se centra la atención en la probabilidad en espacios de Banach, hay mucha geometría que aprovechar. He aquí un ejemplo.

Sea $X$ sea un espacio de Banach, y sea $\mathbb P$ ser un Medida de probabilidad de Radon en $X$ tales que los funcionales lineales continuos son cuadrado-integrables (es decir. $\int_X |f(x)|^2 ~d\mathbb P(x) < \infty$ para todos $f \in X^*$ ). Por ejemplo, $X = C([0,1])$ con medida de Wiener $\mathbb P$ .

Estas son condiciones suficientes para que exista una media $m \in X$ y el operador de covarianza $K : X^* \to X$ tal que $$\mathbb Ef = f(m) \qquad \mathrm{and} \qquad \mathbb E (fg) - f(m)g(m) = f(Kg)$$ para todos $f, g \in X^*$ . Se puede demostrar que

$$\mathbb P \left( m + \overline{KX^*} \right) = 1.$$

Bajo estos supuestos tan generales, la probabilidad se concentra en el subespacio afín generado por la media y la covarianza.

Referencia: Vakhania, Tarieladze y Chobanyan, <i>Distribuciones de probabilidad en espacios de Banach</i>

4voto

Will Puntos 76760

Es una observación bastante trivial, pero en ese espacio el criterio de independencia es que $(p\circ X, q \circ Y) = (p \circ X,1)(1,q \circ Y)$ para todas las funciones indicadoras medibles $p,q : \mathbb{R} \to \mathbb{R}$ (o abstraerse ligeramente del espacio subyacente, $pp = p$ y $qq = q$ donde la multiplicación es puntual). No puedo ver ninguna analogía con la geometría de esta forma, pero parece claro que hay una diferencia fundamental con el tipo de geometría del espacio de Hilbert que has mencionado, ya que estamos cuantificando sobre toda una clase de objetos externos (las funciones indicadoras).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X