Digamos que tienes $i=1:N$ observaciones, $X_i$ . Cada observación es la media de una gaussiana con una varianza asociada $Var(X_i)$ . Las variantes NO son idénticas. La expectativa de $X$ debería ser simplemente su media $N^{-1}\displaystyle\sum X$ . La varianza de la media debe ser $$ Var\left(N^{-1}\displaystyle\sum X_i\right) = N^{-2}\displaystyle\sum Var(X_i) $$ ¿Es esto correcto? Estoy siguiendo la fórmula básica en Wikipedia pero estoy obteniendo variaciones inverosímilmente pequeñas. ¿Se me escapa algo? La fórmula anterior se suele utilizar en el contexto de varianzas iguales, pero no dice nada sobre la necesidad de varianzas iguales.
Respuesta
¿Demasiados anuncios?Sí, esto es así. No es necesario que las variables aleatorias estén idénticamente distribuidas. Sin embargo, el resultado requiere que las variables aleatorias sean independiente .
Dejemos que ${\{(X_i, \mu_i, \sigma_i^2)\}}_{i=1}^N$ sea una serie de son mutuamente independientes variables aleatorias, sus medias y varianzas.
Dejemos que $\bar X:=\tfrac 1 N \sum\limits_{i=1}^N X_i$ sea la media de la serie (es decir, la media de la muestra ).
Entonces, el expectativa de la media de la muestra es: $\mathsf E(\bar X) = \tfrac 1 N\sum\limits_{i=1}^N \mu_i$
Y el varianza de la media de la muestra es: $$\begin{align} \mathsf{Var}(\bar X) ~=~& \mathsf {Cov}(\tfrac 1 N \sum\limits_{i=1}^N X_i,\tfrac 1 N \sum\limits_{j=1}^N X_j) \\[1ex] =~&\tfrac 1{N^2} \sum_{i=1}^N\sum_{j=1}^N \mathsf{Cov}(X_i,X_j) \\[1ex] =~& \tfrac 1{N^2} \sum_{i=1}^N \mathsf{Var}(X_i) & ^\dagger \\[1ex] =~& \tfrac {1}{N^2} \sum_{i=1}^N \sigma_i^2 \end{align}$$
(† porque $\forall i\forall j: \big[i\neq j ~\to~ \mathsf{Cov}(X_i,X_j)=0\big]$ debido a la independencia).
Y efectivamente, como el conde $N$ aumenta infinitamente el varianza de la media de la muestra se reducirá de forma desvanecida. $~\lim\limits_{N\to\infty} \mathsf{Var}(\bar X)=0$
PS: Esto es no la media de la varianza de la muestra, si que es lo que te confunde.