10 votos

¿Es la varianza de una suma de infinitas variables aleatorias independientes la suma de sus varianzas?

Para $X_i$ independiente, es $ \operatorname {Var} \left ( \sum \limits_ {i = 0}^ \infty X_i \right ) = \sum\limits_ {i=0}^ \infty \operatorname {Var}(X_i)$ ?

¡Gracias!

10voto

Did Puntos 1

Sí, tan pronto como la RHS sea finita y la serie $ \sum\limits_ {n} \mathrm E(X_n)$ converge.

Para ver esto, supongamos sin pérdida de generalidad que las variables aleatorias $X_n$ se centran con variaciones $ \sigma_n ^2$ y que la serie $ \sum\limits_n\sigma_n ^2$ converge, con $ \sigma ^2$ como su suma. Que $S_n= \sum\limits_ {k \leqslant n}X_k$ y tenga en cuenta que, por cada $n \leqslant m$ , $$ \mathrm E((S_m-S_n)^2)= \sum\limits_ {k=n+1}^m \sigma_k ^2, $$ que converge a cero cuando $n \to\infty $ Por lo tanto $(S_n)_n$ es una secuencia caucásica en $L^2$ . Deje que $S$ denotan su límite en $L^2$ . Luego $ \mathrm E(S_n^2) \to\mathrm E(S^2)$ cuando $n \to\infty $ y, por cada $n$ , $$ \mathrm E(S_n^2)= \sum\limits_ {k \leqslant n} \sigma_k ^2, $$ por lo tanto $ \mathrm E(S^2)= \sigma ^2$ . Desde $S_n \to S$ en $L^2$ una subsecuente converge casi con seguridad en $S$ . La desigualdad de Kolmogorov prueba que toda la secuencia converge casi con seguridad en $S$ Por lo tanto $S_n \to S$ en el sentido casi seguro también y la prueba está completa.

Si la suma de las series $ \sum\limits_n\sigma_n ^2$ es infinito, $(S_n)_n$ divergen casi con toda seguridad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X