58 votos

¿Cuál es la distribución de la suma de variantes gaussianas no i.i.d.?

Si $X$ se distribuye $N(\mu_X, \sigma^2_X)$ , $Y$ se distribuye $N(\mu_Y, \sigma^2_Y)$ y $Z = X + Y$ Sé que $Z$ se distribuye $N(\mu_X + \mu_Y, \sigma^2_X + \sigma^2_Y)$ si X e Y son independientes.

Pero qué pasaría si X e Y no fueran independientes, es decir $(X, Y) \approx N\big( (\begin{smallmatrix} \mu_X\\\mu_Y \end{smallmatrix}) , (\begin{smallmatrix} \sigma^2_X && \sigma_{X,Y}\\ \sigma_{X,Y} && \sigma^2_Y \end{smallmatrix}) \big) $

¿Afectaría esto a la forma en que la suma $Z$ se distribuye?

12 votos

Sólo quiero señalar que hay todo tipo de distribuciones conjuntas para $(X,Y)$ otros que las normales bivariadas que aún tienen $X$ y $Y$ marginalmente normal. Y esta distinción haría una gran diferencia en las respuestas.

3 votos

@G.JayKerns Estoy de acuerdo en que si $X$ y $Y$ son normales pero no necesariamente normales en conjunto, entonces $X+Y$ puede tener una distribución distinta a la normal. Pero la afirmación de la OP de que " $Z$ se distribuye $N(\mu_x + \mu_y, \sigma^2_x + \sigma^2_y)$ si $X$ y $Y$ son independientes" es absolutamente correcto. Si $X$ y $Y$ son marginalmente normales (como dice la primera parte de la frase) e independientes (según la suposición de la segunda parte de la frase), entonces también son conjuntamente normales. En la frase de la OP pregunta la normalidad conjunta se asume explícitamente y así cualquier combinación lineal de $X$ y $Y$ es normal.

6 votos

@Dilip, que quede claro que no hay nada de malo en la pregunta y no hay nada de malo en tu respuesta (+1) (o en la de la probabilidad, tampoco (+1)). Simplemente estaba señalando que si $X$ y $Y$ son dependientes entonces no es necesario que sean conjuntamente normales, y no estaba claro que el OP hubiera considerado esa posibilidad. Además, me temo (aunque no he dedicado mucho tiempo a pensar) que sin algunos otros supuestos (como la normalidad conjunta) la pregunta podría ser incluso incontestable.

44voto

patfla Puntos 1

La respuesta de @dilip es suficiente, pero se me ocurre añadir algunos detalles sobre cómo se llega al resultado. Podemos utilizar el método de las funciones características. Para cualquier $d$ -distribución normal multidimensional $X\sim N_{d}(\mu,\Sigma)$ donde $\mu=(\mu_1,\dots,\mu_d)^T$ y $\Sigma_{jk}=cov(X_j,X_k)\;\;j,k=1,\dots,d$ la función característica viene dada por:

$$\varphi_{X}({\bf{t}})=E\left[\exp(i{\bf{t}}^TX)\right]=\exp\left(i{\bf{t}}^T\mu-\frac{1}{2}{\bf{t}}^T\Sigma{\bf{t}}\right)$$ $$=\exp\left(i\sum_{j=1}^{d}t_j\mu_j-\frac{1}{2}\sum_{j=1}^{d}\sum_{k=1}^{d}t_jt_k\Sigma_{jk}\right)$$

Para una variable normal unidimensional $Y\sim N_1(\mu_Y,\sigma_Y^2)$ nos encontramos con que:

$$\varphi_Y(t)=\exp\left(it\mu_Y-\frac{1}{2}t^2\sigma_Y^2\right)$$

Ahora, supongamos que definimos una nueva variable aleatoria $Z={\bf{a}}^TX=\sum_{j=1}^{d}a_jX_j$ . Para su caso, tenemos $d=2$ y $a_1=a_2=1$ . La función característica para $Z$ es básicamente la misma que la de $X$ .

$$\varphi_{Z}(t)=E\left[\exp(itZ)\right]=E\left[\exp(it{\bf{a}}^TX)\right]=\varphi_{X}(t{\bf{a}})$$ $$=\exp\left(it\sum_{j=1}^{d}a_j\mu_j-\frac{1}{2}t^2\sum_{j=1}^{d}\sum_{k=1}^{d}a_ja_k\Sigma_{jk}\right)$$

Si comparamos esta función característica con la función característica $\varphi_Y(t)$ vemos que son los mismos, pero con $\mu_Y$ siendo sustituido por $\mu_Z=\sum_{j=1}^{d}a_j\mu_j$ y con $\sigma_Y^2$ siendo sustituido por $\sigma^2_Z=\sum_{j=1}^{d}\sum_{k=1}^{d}a_ja_k\Sigma_{jk}$ . Por lo tanto, como la función característica de $Z$ es equivalente a la función característica de $Y$ las distribuciones también deben ser iguales. Por lo tanto, $Z$ se distribuye normalmente. Podemos simplificar la expresión de la varianza observando que $\Sigma_{jk}=\Sigma_{kj}$ y obtenemos:

$$\sigma^2_Z=\sum_{j=1}^{d}a_j^2\Sigma_{jj}+2\sum_{j=2}^{d}\sum_{k=1}^{j-1}a_ja_k\Sigma_{jk}$$

Esta es también la fórmula general para la varianza de una combinación lineal de cualquier conjunto de variables aleatorias, independientes o no, normales o no, donde $\Sigma_{jj}=var(X_j)$ y $\Sigma_{jk}=cov(X_j,X_k)$ . Ahora bien, si nos especializamos en $d=2$ y $a_1=a_2=1$ la fórmula anterior se convierte en

$$\sigma^2_Z=\sum_{j=1}^{2}(1)^2\Sigma_{jj}+2\sum_{j=2}^{2}\sum_{k=1}^{j-1}(1)(1)\Sigma_{jk}=\Sigma_{11}+\Sigma_{22}+2\Sigma_{21}$$

43voto

Dilip Sarwate Puntos 16161

Véase mi comentario sobre la respuesta de probabilityislogic a esta pregunta . Aquí, $$ \begin{align*} X + Y &\sim N(\mu_X + \mu_Y,\; \sigma_X^2 + \sigma_Y^2 + 2\sigma_{X,Y})\\ aX + bY &\sim N(a\mu_X + b\mu_Y,\; a^2\sigma_X^2 + b^2\sigma_Y^2 + 2ab\sigma_{X,Y}) \end{align*} $$ donde $\sigma_{X,Y}$ es el covarianza de $X$ y $Y$ . Nadie escribe las entradas no diagonales de la matriz de covarianza como $\sigma_{xy}^2$ como lo ha hecho hecho. Las entradas fuera de la diagonal son covarianzas que pueden ser negativas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X