5 votos

¿Por qué la variable aleatoria $X-Y$ constante casi seguro si es independiente de $X$ y $Y$ ? ¿Es válido para una variable aleatoria general $f(X,Y)$ ?

Buenos días,

En clase dijimos que si una variable aleatoria $X-Y$ es independiente de las variables aleatorias $X$ y $Y$ puis $X-Y$ es casi seguro constante, es decir, existe un $c \in \mathbb{R}$ tal que $P(X-Y=c)=1$ .

En primer lugar, no sé exactamente cómo demostrarlo. Sé que $X$ es constante si es independiente de sí mismo. Por lo tanto podría demostrar que $X-Y$ es independiente de sí mismo (Pero las otras direcciones no se sostienen supongo). ¿Sé que $X-Y$ es independiente de sí mismo?

¿Es correcto decir: Si $Z$ es independiente de $X$ y $Y$ entonces es independiente de $g(X,Y)$ donde $g$ es una función medible.

No lo creo. La definición de independencia no da esta propiedad.

Entonces, ¿cómo puedo demostrar que $X-Y$ es casi seguro constante? Otro enfoque a través de las expectativas:

$$E(X-Y|X)=E(X-Y|Y)=E(X-Y)=EX-EY $$

Pero parece que no me lleva a ninguna meta.

Así que..: ¿Por qué la variable aleatoria $X-Y$ constante casi seguro si es independiente de $X$ y $Y$ ?

¿Es esto válido para una variable aleatoria general $f(X,Y)$ (donde $f$ es medible, por ejemplo)? es decir. $f(X,Y)$ es casi seguro constante es independiente de $X$ y $Y$ ?

Si no, le pediría un contraejemplo.

Muchas gracias por su ayuda, Marvin

7voto

Landon Carter Puntos 3189

Sea $\phi_A(t)$ sea la función característica de la variable aleatoria $A$ Entonces sabes que si $A,B$ son independientes, entonces $\phi_{A+B}(t)=\phi_A(t)\phi_B(t)$ .

Usted tiene que $X-Y$ es independiente de $X$ y $Y$ . Observando que $X=(X-Y)+Y$ , tienes que $\phi_X(t)=\phi_{(X-Y)+Y}(t)=\phi_{X-Y}(t)\phi_Y(t)$ [utilizando el hecho de que $X-Y$ y $Y$ son independientes] para cada $t\in\mathbb R$ . Así $\phi_{X-Y}(t)=\dfrac{\phi_X(t)}{\phi_Y(t)}$ .

También tienes, igualmente, que $\phi_Y(t)=\phi_{Y-X}(t)\phi_X(t)$ que implica $\phi_{Y-X}(t)=\dfrac{\phi_Y(t)}{\phi_X(t)}$ .

Llamemos $Z:=X-Y$ para abreviar la notación. Entonces las dos anteriores dan que $\phi_Z(t)=\dfrac{\phi_X(t)}{\phi_Y(t)}$ y $\phi_{-Z}(t)=\dfrac{\phi_Y(t)}{\phi_X(t)}$ .

Por lo tanto $\phi_Z(t)\phi_{-Z}(t)=1$ para cada $t\in\mathbb R$ .

Utilizando el hecho de que $\phi_{-Z}(t)=\overline{\phi_{Z}(t)}$ tenemos que $|\phi_Z(t)|=1$ para todos $t\in\mathbb R$ .

Así, $\phi_Z(t)=e^{ig(t)}$ para alguna función $g$ para todos $t\in\mathbb R$ .

Ahora observe que para todo $t$ , $e^{ig(t)}=E(e^{itZ})$ implica $E(e^{i(tZ-g(t))})=1$ para todos $t$ . Observando que $|e^{i(tZ-g(t))}|=1$ debemos tener eso $tZ-g(t)=2k(t)\pi$ para una función de valor entero $k$ casi seguro.

Por lo tanto, casi seguro, $Z=\dfrac{g(t)+2k(t)\pi}{t}$ para todos $t\in\mathbb R$ .

Dado que el LHS es independiente de $t$ podemos elegir cualquier $t$ , digamos $t=1$ . Entonces $Z=g(1)+2k(1)\pi$ que es, después de todo, una constante, casi seguro.

Por lo tanto $X-Y$ es constante con casi total seguridad.

Veamos ahora sus otras preguntas. Quiere saber si $Z$ es independiente de $X$ y $Y$ entonces es cierto que $Z$ es independiente de $g(X,Y)$ para cualquier función medible $g$ ?

Así pues, consideremos para los conjuntos de Borel $A,B$ lo siguiente: $P(Z\in A, g(X,Y)\in B)=P[Z\in A, (X,Y)\in g^{-1}(B)]$ . Se puede escribir como el producto $P[Z\in A]P[(X,Y)\in g^{-1}(B)]$ sólo si $Z$ es INDEPENDIENTE CONJUNTAMENTE con $X,Y$ . Existen ejemplos en los que $Z$ es independiente de cada $X,Y$ pero quizá no conjuntamente. Aquí hay uno:

Lanza dos dados de forma independiente. Definir $A$ ser el acontecimiento que $7$ se obtiene como la suma de los dos lanzamientos, $B$ sea el acontecimiento que $3$ se obtiene en el primer lanzamiento y $C$ sea el acontecimiento que $4$ se obtiene en el segundo lanzamiento. A continuación, puede comprobar que $A,B,C$ son independientes entre sí, pero no conjuntamente ( $A$ NO es independiente conjuntamente con $B$ y $C$ .) Por ejemplo con variables aleatorias, tomemos $X=1_B,Y=1_C,Z=1_A$ .

Como ven, hemos utilizado de forma crucial la estructura de $f(X,Y)=X-Y$ . No puedo decir ahora mismo si siempre se puede decir que si $f(X,Y)$ es independiente de $X$ y $Y$ entonces es a.s. constante.

0 votos

Gran respuesta, me gusta el enfoque a través de la función característica. Gracias por la explicación a mi segunda pregunta y el contraejemplo, bastante comprensible.

1voto

zhoraster Puntos 5893

Ampliando la respuesta de Landon Carter,

es decir $f(X,Y)$ es una constante casi segura que es independiente de $X$ y $Y$ ?

No. Lanza una moneda dos veces, deja $X_i = \mathbf{1}_{\text{H on $ i $th flip}}$ , $i=1,2$ , $Z = \mathbf{1}_{X_1=X_2}$ . Entonces $Z$ es independiente de $X_1$ y $X_2$ pero no es constante. (Nótese que aquí $Z$ es además función de la diferencia $X_1-X_2$ .)

Como escribió Landon Carter, la independencia conjunta es suficiente. Una condición suficiente más débil es que $f(X,Y)$ es independiente del vector $(X,Y)$ . De hecho, en este caso $f(X,Y)$ es independiente de cualquier transformación del vector $(X,Y)$ . En particular, es independiente de sí mismo, lo que significa que es constante a.s.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X