Deje $X_1, \dots, X_n$ ser variables aleatorias, para algún entero $n > 2$. A continuación, $$\text{Var}\left(\sum_{i=1}^nX_i\right) = \sum_{i=1}^n \text{Var}(X_i) + \sum_{i \neq j} \text{Cov}(X_i, X_j) $$
Hay un interés natural en el caso especial cuando el $X_i$ son tales que $$\sum_{i \neq j} \text{Cov}(X_i, X_j) = 0 \quad \Leftrightarrow \quad \text{Var}\left(\sum_{i=1}^nX_i\right) = \sum_{i=1}^n \text{Var}(X_i)$$
Ahora, la condición $$\text{Cov}(X_i, X_j) = 0, \,\forall\,i \neq j\tag{1}$$ clearly implies the condition $$\sum_{i\neq j} \text{Cov}(X_i, X_j) = 0 \;.\tag{2}$$
Es a la inversa verdad?
Alternativamente, alguien puede darme un ejemplo de que la $(2)$ mantiene sino $(1)$ falla?
(Mi conjetura es que el $(2)$ sí no implica la $(1)$, ya que me doy cuenta de que, en general, $\sum_1^{n>1} a_i = 0$ no implica que todas las $a_i$ son cero, pero no puedo entran fácilmente con un ejemplo de este hecho general cuando los sumandos son los términos de $\text{Cov}(X_i, X_j),\;(i\neq j)$.)
(Mis preguntas restantes son discutible si, contrariamente a lo que sospecho, $(2)$ no implica, y es por lo tanto equivalente a, $(1)$.)
Cuando las variables aleatorias $X_1, \dots, X_n$ se describe como "no", ¿significa esto que satisfacen $(1)$, o simplemente que cumplan $(2)$?
Por último, he visto a menudo el término "pares correlacionados", que significa claramente que $(1)$ sostiene, es que hay un nombre para la condición en la $(2)$ (al $(1)$ es no se supone)?