El conjunto de variables aleatorias es un espacio vectorial, y muchas de las propiedades del espacio Euclidiano puede compararse a ellos. La desviación estándar actúa como una longitud, y la varianza como la longitud al cuadrado. La independencia corresponde a ser ortogonal, mientras que la correlación perfecta corresponde con la multiplicación escalar. Por lo tanto, la varianza de las variables independientes siga el Teorema de Pitágoras:
$var(A+B) = var(A)+var(B)$.
Si no están perfectamente correlacionados, entonces
$std(A+B) = std(A)+std(B)$
Tenga en cuenta que esto es equivalente a
$var(A+B) = var(A)+var(B)+2\sqrt{var(A)var(B)}$
Si ellos no son independientes, entonces que siga una ley análoga a la ley de los cosenos:
$var(A+B) = var(A)+var(B)+2cov(A,B)$
Tenga en cuenta que el caso general, es uno de entre una completa independencia y correlación perfecta. Si $A$ $B$ son independientes, entonces la $cov(A,B)$ es cero. Para el caso general es que el $var(A,B)$ siempre tiene un $var(A)$ plazo y un $var(B)$ plazo, y, luego, la variación en el $2\sqrt{var(A)var(B)}$ plazo; la más correlacionadas las variables, la más grande de este tercer término será. Y esto es precisamente lo $2cov(A,B)$: $2\sqrt{var(A)var(B)}$ veces $r^2$$A$$B$.
$var(A+B) = var(A)+var(B)+MeasureOfCorrelation*PerfectCorrelationTerm$
donde $MeasureOfCorrelation = r^2$ $PerfectCorrelationTerm=2\sqrt{var(A)var(B)}$
Puesto en otros términos, si $r = correl(A,B)$, luego
$\sigma_{A+B} = \sigma_A^2+\sigma_B^2+ 2(r\sigma_A)(r\sigma_B)$
Por lo tanto, $r^2$ es análoga a la $cos$ en la Ley de los Cosenos.