112 votos

¿La varianza de una suma es igual a la suma de las varianzas?

¿Es (siempre) cierto que $$\mathrm{Var}\left(\sum\limits_{i=1}^m{X_i}\right) = \sum\limits_{i=1}^m{\mathrm{Var}(X_i)} \>?$$

13 votos

Las respuestas siguientes proporcionan la prueba. La intuición puede verse en el caso simple var(x+y): si x e y están correlacionados positivamente, ambos tenderán a ser grandes/pequeños juntos, aumentando la variación total. Si están correlacionados negativamente, tenderán a anularse mutuamente, disminuyendo la variación total.

160voto

Niall Puntos 51

La respuesta a su pregunta es "A veces, pero no en general".

Para ver esto dejemos $X_1, ..., X_n$ sean variables aleatorias (con varianzas finitas). Entonces,

$$ {\rm var} \left( \sum_{i=1}^{n} X_i \right) = E \left( \left[ \sum_{i=1}^{n} X_i \right]^2 \right) - \left[ E\left( \sum_{i=1}^{n} X_i \right) \right]^2$$

Ahora bien, tenga en cuenta que $(\sum_{i=1}^{n} a_i)^2 = \sum_{i=1}^{n} \sum_{j=1}^{n} a_i a_j $ Lo cual está claro si se piensa en lo que se hace cuando se calcula $(a_1+...+a_n) \cdot (a_1+...+a_n)$ a mano. Por lo tanto,

$$ E \left( \left[ \sum_{i=1}^{n} X_i \right]^2 \right) = E \left( \sum_{i=1}^{n} \sum_{j=1}^{n} X_i X_j \right) = \sum_{i=1}^{n} \sum_{j=1}^{n} E(X_i X_j) $$

de manera similar,

$$ \left[ E\left( \sum_{i=1}^{n} X_i \right) \right]^2 = \left[ \sum_{i=1}^{n} E(X_i) \right]^2 = \sum_{i=1}^{n} \sum_{j=1}^{n} E(X_i) E(X_j)$$

así que

$$ {\rm var} \left( \sum_{i=1}^{n} X_i \right) = \sum_{i=1}^{n} \sum_{j=1}^{n} \big( E(X_i X_j)-E(X_i) E(X_j) \big) = \sum_{i=1}^{n} \sum_{j=1}^{n} {\rm cov}(X_i, X_j)$$

por la definición de covarianza.

Ahora con respecto a ¿La varianza de una suma es igual a la suma de las varianzas? :

  • Si las variables no están correlacionadas, sí Es decir, que.., ${\rm cov}(X_i,X_j)=0$ para $i\neq j$ entonces $$ {\rm var} \left( \sum_{i=1}^{n} X_i \right) = \sum_{i=1}^{n} \sum_{j=1}^{n} {\rm cov}(X_i, X_j) = \sum_{i=1}^{n} {\rm cov}(X_i, X_i) = \sum_{i=1}^{n} {\rm var}(X_i) $$

  • Si las variables están correlacionadas, no, no en general : Por ejemplo, supongamos que $X_1, X_2$ son dos variables aleatorias con varianza cada una $\sigma^2$ y ${\rm cov}(X_1,X_2)=\rho$ donde $0 < \rho <\sigma^2$ . Entonces ${\rm var}(X_1 + X_2) = 2(\sigma^2 + \rho) \neq 2\sigma^2$ por lo que la identidad falla.

  • pero es posible para ciertos ejemplos : Supongamos que $X_1, X_2, X_3$ tienen una matriz de covarianza $$ \left( \begin{array}{ccc} 1 & 0.4 &-0.6 \\ 0.4 & 1 & 0.2 \\ -0.6 & 0.2 & 1 \\ \end{array} \right) $$ entonces ${\rm var}(X_1+X_2+X_3) = 3 = {\rm var}(X_1) + {\rm var}(X_2) + {\rm var}(X_3)$

Por lo tanto, si las variables no están correlacionadas entonces la varianza de la suma es la suma de las varianzas, pero a la inversa es no es cierto en general.

0 votos

En cuanto a la matriz de covarianza del ejemplo, ¿es correcto lo siguiente: la simetría entre los triángulos superior derecho e inferior izquierdo refleja el hecho de que $\text{cov}(X_i,X_j)=\text{cov}(X_j,X_i)$ pero la simetría entre la parte superior izquierda y la inferior derecha (en este caso que $\text{cov}(X_1, X_2) = \text{cov}(X_2,X_3) = 0.3$ es sólo una parte del ejemplo, pero podría sustituirse por dos números diferentes que sumen $0.6$ Por ejemplo, $\text{cov}(X_1, X_2) = a$ y $\text{cov}(X_2,X,3) = 0.6 -a$ ? Gracias de nuevo.

61voto

matt Puntos 11

$$\text{Var}\bigg(\sum_{i=1}^m X_i\bigg) = \sum_{i=1}^m \text{Var}(X_i) + 2\sum_{i\lt j} \text{Cov}(X_i,X_j).$$

Por lo tanto, si las covarianzas tienen un promedio de $0$ Si las variables no están correlacionadas entre sí, o si son independientes, la varianza de la suma es la suma de las varianzas.

Un ejemplo en el que esto no es cierto: Sea $\text{Var}(X_1)=1$ . Dejemos que $X_2 = X_1$ . Entonces $\text{Var}(X_1 + X_2) = \text{Var}(2X_1)=4$ .

0 votos

Rara vez será cierto para las variantes de la muestra.

2 votos

@DWin, "raro" es un eufemismo - si el $X$ s tienen una distribución continua, la probabilidad de que la varianza muestral de la suma sea igual a la suma de las varianzas muestrales en exactamente 0 :)

0 votos

@Douglas Zare ¿Conoces alguna forma de calcular esto de forma no manual? Digamos que estoy sumando cantidades medidas en 30 días distintos y es probable que estén correlacionadas de alguna manera aunque parezcan algo estocásticas. ¿Cómo puedo calcular la incertidumbre de la cantidad sumada? ¿O debería simplemente asumir el peor escenario de incertidumbre sumando linealmente la incertidumbre de la estimación individual?

19voto

Taylor Puntos 1

Sólo quería añadir una versión más sucinta de la prueba dada por Macro, para que sea más fácil ver lo que pasa. $\newcommand{\Cov}{\text{Cov}}\newcommand{\Var}{\text{Var}}$

Obsérvese que como $\Var(X) = \Cov(X,X)$

Para dos variables aleatorias cualesquiera $X,Y$ que tenemos:

\begin{align} \Var(X+Y) &= \Cov(X+Y,X+Y) \\ &= E((X+Y)^2)-E(X+Y)E(X+Y) \\ &\text{by expanding,} \\ &= E(X^2) - (E(X))^2 + E(Y^2) - (E(Y))^2 + 2(E(XY) - E(X)E(Y)) \\ &= \Var(X) + \Var(Y) + 2(E(XY)) - E(X)E(Y)) \\ \end{align} Por lo tanto, en general, la varianza de la suma de dos variables aleatorias no es la suma de las varianzas. Sin embargo, si $X,Y$ son independientes, entonces $E(XY) = E(X)E(Y)$ y tenemos $\Var(X+Y) = \Var(X) + \Var(Y)$ .

Obsérvese que podemos obtener el resultado de la suma de $n$ variables aleatorias por una simple inducción.

13voto

Colin Wheeler Puntos 2493

Sí, si cada par de $X_i$ no están correlacionados, esto es cierto.

Ver el explicación en Wikipedia

0 votos

Estoy de acuerdo. También se encuentra una explicación sencilla(r) en Cosas de la visión .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X