$X_{k}$ son variables aleatorias y no son independientes, me pregunto si$E(\sum_{n=1}^{+\infty}X_{k}$) =$\sum_{n=1}^{+\infty}EX_{k}$. si la ecuación no se cumple, qué condiciones se requieren para hacerla correcta.
Respuestas
¿Demasiados anuncios?La elaboración de Sivaram la respuesta.
Supongamos que el $X_i$ son no negativos variables aleatorias en un espacio de probabilidad $(\Omega,\mathcal{F},P)$, y deje $S_n = \sum\nolimits_{i = 1}^n {X_i }$. Desde $S_n$ es monótona creciente, converge pointwise a $S \in [0,\infty]$; es decir, para cada $\omega \in \Omega$, $S(\omega ): = \lim _{n \to \infty } S_n (\omega ) \in [0,\infty]$. Por el teorema de convergencia Monótona, ya que $0 \leq S_1 \leq S_2 \leq \cdots$ es monótona creciente de la secuencia de no negativo de las variables aleatorias (medibles funciones), el pointwise límite de $S$ también es medible y tiene $$ \mathop {\lim }\nolimits_{n \to \infty } {\rm E}(S_n ) := \mathop {\lim }\limits_{n \to \infty } \int_\Omega {S_n dP} = \int_\Omega {(\lim _{n \to \infty } S_n )dP} := {\rm E}(\lim _{n \to \infty } S_n ) \[0,\infty]. $$ Por lo tanto $$ \sum\limits_{n = 1}^\infty {{\rm E}(X_n )} = \mathop {\lim }\limits_{n \to \infty } {\rm E}(S_n ) = {\rm E}(\lim _{n \to \infty } S_n ) = {\rm E}\bigg(\sum\limits_{n = 1}^\infty {X_n } \bigg), $$ donde la primera igualdad se sigue de la linealidad de las expectativas. Tenga en cuenta que si el lado izquierdo es finito, que es$\sum\nolimits_{n = 1}^\infty {{\rm E}(X_n )} < \infty$,, a continuación,${\rm E}(\sum\nolimits_{n = 1}^\infty {X_n }) < \infty$, lo que implica que el pointwise límite de $\sum\nolimits_{n = 1}^\infty {X_n } \,( = S)$ es casi seguramente finito (de hecho, $\int_\Omega {SdP} < \infty $ implica que el $S$ es casi seguramente finito).
Si los$X_i$ no son negativos, siempre es cierto, ya sea por convergencia monótona o por el teorema de Tonelli (pensar en la suma como una integral sobre$\mathbb{N}$ con respecto a la medida de conteo). Si tenemos$\sum_k E|X_k| < \infty$ o equivalentemente$E \sum_k |X_k| < \infty$, entonces también es cierto, ya sea por convergencia dominada o por el teorema de Fubini.
De lo contrario, puede fallar: deje$U \sim U(0,1)$,$Y_k = k 1_{\{U \le 1/k\}}$, para que$Y_k \to 0$ as pero$E Y_k = 1$ para cada$k$. Deje$Y_0 = 0$ y$X_k = Y_k - Y_{k-1}$ para$k \ge 1$. Entonces puedes verificar fácilmente que$$E \sum_{k=1}^\infty X_k = 0 \ne 1 = \sum_{k=1}^\infty E X_k.$ $
Si el $X_k$ están altamente correlacionados con las expectativas convergentes bastante rápido para $0$ --- $O(k^{-1.001})$ sería suficiente --- a continuación, la suma en el lado izquierdo podría ser fácilmente casi seguramente infinito, mientras que el lado derecho es bien definido. Un caso simple sería $X_k=X$ para todos los $k$, con $X$ bien $-1$ o $1$, con igual probabilidad. No es evidente cómo construir una función óptima de las correlaciones con el fin de mantener esta condición si y sólo si la función cumple cierta obligado. Dudo de si no podría ser una función de este tipo---para empezar, tendría que ser independiente de los cambios a cualquier número finito de $X_k$.