18 votos

¿Cuál es la intuición que subyace a la independencia de $X_2-X_1$ y $X_1+X_2$ , $X_i \sim N(0,1)$ ?

Esperaba que alguien pudiera proponer un argumento que explique por qué las variables aleatorias $Y_1=X_2-X_1$ y $Y_2=X_1+X_2$ , $X_i$ que tienen la distribución normal estándar, son estadísticamente independientes. La prueba de este hecho se deduce fácilmente de la técnica MGF, aunque me parece extremadamente contraintuitiva.

Agradecería por lo tanto la intuición aquí, si la hay.

Gracias de antemano.

EDITAR : Los subíndices no indican Estadística de Orden, sino observaciones IID de la distribución normal estándar.

23voto

Paul Puntos 1

Se trata de datos de distribución normal estándar: scatter plot in first coordinate system Obsérvese que la distribución es simétrica circular.

Cuando cambie a $Y_1 = X_2 - X_1$ y $Y_2 = X_1 + X_2$ se rota y escala el eje, así: scatter plot with rotated coordinate system Este nuevo sistema de coordenadas tiene el mismo origen que el original y los ejes son ortogonales. Debido a la simetría circular, las variables siguen siendo independientes en el nuevo sistema de coordenadas.

7voto

AdamSane Puntos 1825

El resultado funciona para $(X_1,X_2)$ conjuntamente normales (es decir, con correlación, $-1<\rho<1$ ), con $\sigma$ .

Si conoce un par de resultados básicos, esto es todo lo que necesita:

$\quad\quad\quad$ enter image description here

El planteamiento de dobiwan está bien en esencia, sólo que el resultado es más general que el caso tratado allí.

6voto

Dilip Sarwate Puntos 16161

El resultado que usted afirma que es cierto no lo es en general, ni siquiera para el caso en que todos que se sabe es que $X_1$ y $X_2$ son variables aleatorias normales con idéntica varianza, pero el resultado hace para el habitual interpretación de la condición que declaró más tarde:

Los subíndices no indican Estadística de Orden, sino observaciones de la distrubución normal estándar.

La interpretación habitual de las últimas palabras de esta declaración es, por supuesto, que $X_1$ y $X_2$ son independiente variables aleatorias (normales) y, por tanto conjuntamente variables aleatorias normales.

Para conjuntamente normal variables aleatorias con cierto que $X_1+X_2$ y $X_1-X_2$ son independiente ( (con varianzas, en general, desiguales), y la explicación intuitiva de esto se da mejor en la respuesta de Glen_b. Para su s $X_1$ y $X_2$ ser independiente también, la respuesta de dobiwan, que usted ha aceptado, es la más sencilla, y de hecho revela que cualquier r los ejes, no sólo por la $\pm \frac{\pi}{4}$ implícita en la transformación $(X_1,X_2)\to (X_1+X_2, X_1-X_2)$ se obtendrán variables aleatorias independientes.


¿Qué se puede decir en general? En todo lo que diga a continuación, tenga en en cuenta que $X$ y $Y$ tienen el misma varianza no importa qué otros propiedades se les puedan atribuir.

Si $X$ y $Y$ son cualquier variables aleatorias (nota: no necesariamente normales) con idéntica varianza, entonces $X+Y$ y $X-Y$ son no correlacionado variables aleatorias (es decir, tienen covarianza cero). Esto se debe a que la función de covarianza es bilineal : $$\begin{align} \operatorname{cov}(X+Y, X-Y) &= \operatorname{cov}(X,X) - \operatorname{cov}(X,Y) + \operatorname{cov}(Y,X) - \operatorname{cov}(Y,Y)\\ &= \operatorname{var}(X) - \operatorname{cov}(X,Y) + \operatorname{cov}(X,Y) - \operatorname{var}(Y)\\ &= 0. \end{align}$$ Aquí hemos utilizado el hecho de que $\operatorname{cov}(X,X)$ es sólo la varianza $\operatorname{var}(X)$ de $X$ (y de forma similar para $Y$ ) y, por supuesto, $\operatorname{cov}(Y,X) = \operatorname{cov}(X,Y)$ . Nótese que este resultado se mantiene cuando $X$ y $Y$ son variables aleatorias (marginalmente) normales pero no necesariamente conjuntamente variables aleatorias normales. (Si no está familiarizado con esta noción de normalidad marginal no es lo mismo que normalidad conjunta, véase esta gran respuesta por cardenal). En el caso especial de que $X$ y $Y$ son conjuntamente normal variables aleatorias normales (pero no necesariamente independientes), por lo que son $X+Y$ y $X-Y$ conjuntamente normales, y puesto que su covarianza es $0$ , $X+Y$ y $X-Y$ son variables aleatorias independientes.

2voto

SHU Puntos 18

Primero argumento a favor de una distribución idéntica general $X_1,X_2$ que la media condicional de $Y_1$ condicionado a $Y_2$ es constante $0$ . Basándome en esto, sostengo que la covarianza de $Y_1,Y_2$ es 0. Entonces, bajo normalidad, covarianza cero implica independencia.

La media condicional

Intuición: $X_1+X_2=y$ no implica nada sobre qué componente ha contribuido más a la suma (por ejemplo, $X_1=x, X_2 = y-x$ es tan probable como $X_1 = y-x, X_2=x$ ). Por lo tanto, la diferencia esperada debe ser 0.

Prueba: $X_1$ y $X_2$ tienen idéntica distribución y $X_1+X_2$ es simétrica con respecto a la indexación. Así, por razones de simetría, la distribución condicional $X_1 \mid Y_2 = y$ debe ser igual a la distribución condicional $X_2 \mid Y_2 = y$ . Por lo tanto, las distribuciones condicionales también tienen la misma media, y \begin{equation} \mathbb{E}(Y_1 \mid Y_2 = y) = \mathbb{E}(X_1 - X_2 \mid X_1+X_2 = y) \\ = \mathbb{E}(X_1 \mid X_1+X_2 = y) - \mathbb{E}(X_2 \mid X_1+X_2 = y)= 0. \end{equation}

(Advertencia: no he considerado la posibilidad de que la media condicional no exista).

Una media condicional constante implica una correlación/covarianza nula

Intuición: la correlación mide cuánto $Y_1$ tiende a aumentar cuando $Y_2$ aumenta. Si se observa $Y_2$ nunca cambia nuestra media de $Y_1$ , $Y_1$ y $Y_2$ no están correlacionados.

Prueba: Por definición, la covarianza es \begin{equation} Cov(Y_1,Y_2) = \mathbb{E}\left[\left(Y_1 - \mathbb{E}(Y_1)\right)\left(Y_2 -\mathbb{E}(Y_2) \right)\right] \end{equation} a esta expectativa, aplicamos la ley de las expectativas iteradas: tomamos la expectativa de la expectativa condicional condicionada a $Y_2$ : \begin{equation} = \mathbb{E}\left[\mathbb{E}\left[\left(Y_1 - \mathbb{E}(Y_1)\right)\left(Y_2 -\mathbb{E}(Y_2) \right) \mid Y_2\right]\right] = \mathbb{E}\left[(Y_2 - \mathbb{E}(Y_2))\mathbb{E}\left[Y_1 - \mathbb{E}(Y_1) \mid Y_2\right] \right]. \end{equation} Recordemos que se demostró que la media condicional es independiente de $Y_2$ por lo que la expresión se simplifica como \begin{equation} = \mathbb{E}\left[(Y_2 - \mathbb{E}(Y_2))\mathbb{E}\left[Y_1-\mathbb{E}(Y_1)\right]\right] \end{equation} pero la expectativa interna es $0$ y obtenemos \begin{equation} = \mathbb{E}\left[(Y_2 - \mathbb{E}(Y_2))\times0\right] = 0. \end{equation}

Independencia

Suponiendo distribuciones idénticas para $X_1,X_2$ se demostró que $Y_1$ y $Y_2$ no están correlacionados. Cuando $X_1,X_2$ son conjuntamente normales (por ejemplo, iid. normal como en la pregunta), sus combinaciones lineales $Y_1,Y_2$ también son normales conjuntamente y, por tanto, la falta de correlación implica independencia.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X