La respuesta de @dilip es suficiente, pero se me ocurre añadir algunos detalles sobre cómo se llega al resultado. Podemos utilizar el método de las funciones características. Para cualquier $d$ -distribución normal multidimensional $X\sim N_{d}(\mu,\Sigma)$ donde $\mu=(\mu_1,\dots,\mu_d)^T$ y $\Sigma_{jk}=cov(X_j,X_k)\;\;j,k=1,\dots,d$ la función característica viene dada por:
$$\varphi_{X}({\bf{t}})=E\left[\exp(i{\bf{t}}^TX)\right]=\exp\left(i{\bf{t}}^T\mu-\frac{1}{2}{\bf{t}}^T\Sigma{\bf{t}}\right)$$ $$=\exp\left(i\sum_{j=1}^{d}t_j\mu_j-\frac{1}{2}\sum_{j=1}^{d}\sum_{k=1}^{d}t_jt_k\Sigma_{jk}\right)$$
Para una variable normal unidimensional $Y\sim N_1(\mu_Y,\sigma_Y^2)$ nos encontramos con que:
$$\varphi_Y(t)=\exp\left(it\mu_Y-\frac{1}{2}t^2\sigma_Y^2\right)$$
Ahora, supongamos que definimos una nueva variable aleatoria $Z={\bf{a}}^TX=\sum_{j=1}^{d}a_jX_j$ . Para su caso, tenemos $d=2$ y $a_1=a_2=1$ . La función característica para $Z$ es básicamente la misma que la de $X$ .
$$\varphi_{Z}(t)=E\left[\exp(itZ)\right]=E\left[\exp(it{\bf{a}}^TX)\right]=\varphi_{X}(t{\bf{a}})$$ $$=\exp\left(it\sum_{j=1}^{d}a_j\mu_j-\frac{1}{2}t^2\sum_{j=1}^{d}\sum_{k=1}^{d}a_ja_k\Sigma_{jk}\right)$$
Si comparamos esta función característica con la función característica $\varphi_Y(t)$ vemos que son los mismos, pero con $\mu_Y$ siendo sustituido por $\mu_Z=\sum_{j=1}^{d}a_j\mu_j$ y con $\sigma_Y^2$ siendo sustituido por $\sigma^2_Z=\sum_{j=1}^{d}\sum_{k=1}^{d}a_ja_k\Sigma_{jk}$ . Por lo tanto, como la función característica de $Z$ es equivalente a la función característica de $Y$ las distribuciones también deben ser iguales. Por lo tanto, $Z$ se distribuye normalmente. Podemos simplificar la expresión de la varianza observando que $\Sigma_{jk}=\Sigma_{kj}$ y obtenemos:
$$\sigma^2_Z=\sum_{j=1}^{d}a_j^2\Sigma_{jj}+2\sum_{j=2}^{d}\sum_{k=1}^{j-1}a_ja_k\Sigma_{jk}$$
Esta es también la fórmula general para la varianza de una combinación lineal de cualquier conjunto de variables aleatorias, independientes o no, normales o no, donde $\Sigma_{jj}=var(X_j)$ y $\Sigma_{jk}=cov(X_j,X_k)$ . Ahora bien, si nos especializamos en $d=2$ y $a_1=a_2=1$ la fórmula anterior se convierte en
$$\sigma^2_Z=\sum_{j=1}^{2}(1)^2\Sigma_{jj}+2\sum_{j=2}^{2}\sum_{k=1}^{j-1}(1)(1)\Sigma_{jk}=\Sigma_{11}+\Sigma_{22}+2\Sigma_{21}$$
12 votos
Sólo quiero señalar que hay todo tipo de distribuciones conjuntas para $(X,Y)$ otros que las normales bivariadas que aún tienen $X$ y $Y$ marginalmente normal. Y esta distinción haría una gran diferencia en las respuestas.
3 votos
@G.JayKerns Estoy de acuerdo en que si $X$ y $Y$ son normales pero no necesariamente normales en conjunto, entonces $X+Y$ puede tener una distribución distinta a la normal. Pero la afirmación de la OP de que " $Z$ se distribuye $N(\mu_x + \mu_y, \sigma^2_x + \sigma^2_y)$ si $X$ y $Y$ son independientes" es absolutamente correcto. Si $X$ y $Y$ son marginalmente normales (como dice la primera parte de la frase) e independientes (según la suposición de la segunda parte de la frase), entonces también son conjuntamente normales. En la frase de la OP pregunta la normalidad conjunta se asume explícitamente y así cualquier combinación lineal de $X$ y $Y$ es normal.
6 votos
@Dilip, que quede claro que no hay nada de malo en la pregunta y no hay nada de malo en tu respuesta (+1) (o en la de la probabilidad, tampoco (+1)). Simplemente estaba señalando que si $X$ y $Y$ son dependientes entonces no es necesario que sean conjuntamente normales, y no estaba claro que el OP hubiera considerado esa posibilidad. Además, me temo (aunque no he dedicado mucho tiempo a pensar) que sin algunos otros supuestos (como la normalidad conjunta) la pregunta podría ser incluso incontestable.
8 votos
Como menciona @G.JayKerns, por supuesto podemos obtener todo tipo de comportamientos interesantes si consideramos normales distribuidas marginalmente, pero no conjuntamente. He aquí un ejemplo sencillo: Dejemos que $X$ sea normal estándar y $\varepsilon = \pm 1$ con probabilidad 1/2 cada uno, independientemente de $X$ . Sea $Y = \varepsilon X$ . Entonces $Y$ también es normal, pero $Z = X+Y$ es exactamente igual a cero con probabilidad 1/2 y es igual a $2X$ con probabilidad 1/2.
5 votos
Podemos obtener toda una variedad de comportamientos diferentes considerando la cópula bivariada que se asocia con $(X,Y)$ a través de Teorema de Sklar . Si utilizamos la cópula gaussiana, obtenemos $(X,Y)$ son conjuntamente normales, por lo que $Z = X + Y$ se distribuye normalmente. Si la cópula es no la cópula gaussiana, entonces $X$ y $Y$ siguen distribuyéndose marginalmente como normales, pero no son conjuntamente normales y, por tanto, la suma no se distribuirá normalmente, en general.
0 votos
¡@cardinal gran ejemplo!
1 votos
Este es otro ejemplo en el que $X$ y $Y$ son marginalmente normales, conjuntamente continuas y no conjuntamente normales. Tomemos la densidad conjunta de $X$ y $Y$ para ser $$f(x,y)=\begin{cases}2\phi(x)\phi(y), &\text{if}~x\geq 0~\text{and}~y\geq 0,\\2\phi(x)\phi(y), &\text{if}~x< 0~\text{and}~y<0,\\0&\text{otherwise.}\end{cases}$$ donde $\phi(\cdot)$ es la densidad normal estándar. En otras palabras, se parte de la densidad conjunta de dos variables aleatorias normales independientes, se duplica el valor de la densidad en el primer y tercer cuadrante y se reduce el valor a $0$ en el segundo y cuarto cuadrante.