Deje $X_i$ ser independiente de las variables aleatorias, $\forall\,i \in \mathbf{n} \equiv \{0,\dots,n-1\}$, con la misma expectativa de valor de $\mathbb{E}(X_i)=\mu$, e idéntica a la de la varianza $\mathrm{Var}(X_i)=\sigma^2$.1 También, que los $\overline{X}$ ser su promedio, $\frac{1}{n}\sum X_i$ (donde la suma de todos los $i\in \mathbf{n}$ es implícito, un convenio voy a utilizar a lo largo).
No es difícil mostrar, de forma directa (si un poco tedioso) cálculo, que
$$ \estilo de texto \mathbb{E} \left( \sum (X_i - \mu)^2 \right) - \mathbb{E} \left( \sum (X_i - \overline{X})^2 \right) = \sigma^2 $$
Siempre que llego a un muy "simple" resultado a través de un "tedioso" derivación, como en este caso, tengo la fuerte sospecha de que tiene que haber una manera más directa, y sin embargo totalmente riguroso, el razonamiento para llegar a él. O más bien, una manera de ver el problema que hace que el resultado de inmediato "obvio".2
En este caso, la mejor que he encontrado algo como esto: el resultado anterior se deduce del hecho de que, en primer lugar,
$$ \estilo de texto \mathbb{E} \left( \sum (X_i - \mu)^2 \right) = n \sigma^2 $$
y, en segundo lugar, si restamos $\overline{X}$ en lugar de $\mu$, hemos "perdido un grado de libertad", y "por lo tanto"
$$ \estilo de texto \mathbb{E} \left( \sum (X_i - \overline{X})^2 \right) = (n - 1) \sigma^2 $$
Me parece que este a mano ondulado argumento completamente convincentes. (Dudo que los que proponen lo hubiera creído si no lo sabe ya el resultado de una más rigurosa de la derivación.)
¿Hay algo mejor?
EDITAR:
He aquí un ejemplo de la clase de argumento que estoy buscando. Todavía tiene demasiadas lagunas de ser satisfactoria, pero al menos muestra un razonamiento que no requiere papel y lápiz: pueden ser administradas por vía oral, o con crudo "marcas en la arena" (álgebra), y se entiende fácilmente.
Primero podemos ver que
$$ \estilo de texto \mathbb{E} \left( \sum (X_i - \mu)^2 \right) \geq \mathbb{E} \left( \sum (X_i - \overline{X})^2 \right) $$
Por qué? Porque, el valor de $c$ que minimiza $\sum (X_i - c)^2$ $c = \overline{X}$ (un hecho para que yo pudiera darle una forma similar de la mano ondulado, no del todo-hermético argumento, aunque fácil de probar por el tedioso cálculo), lo que significa que siempre que $\overline{X} \neq \mu$, tendríamos $\sum (X_i - \mu)^2 > \sum (X_i - \overline{X})^2$.
Ahora, lo de "unidades" $\overline{X}$ $\mu$ (por así decirlo) es $\sigma^2$. Así que podemos concluir que la diferencia
$$ \estilo de texto \mathbb{E} \left( \sum (X_i - \mu)^2 \right) - \mathbb{E} \left( \sum (X_i - \overline{X})^2 \right) \geq 0 $$
debe aumentar monótonamente como $\sigma^2$ aumenta...
Bastante justo, pero ¿por qué es la diferencia exactamente $\sigma^2$, y no, digamos, $\sigma^2/n$ o *suspiro* $\pi \sigma^2/n$? Aquí mi mano saludando comienza a decaer... es sugerente que $\mathbb{E}(\overline{X}) = \mu$ y
$$\mathrm{Var}(\overline{X}) = \frac{\sigma^2}{n} = \mathbb{E} \left( ( \overline{X} - \mathbb{E}(\overline{X}))^2 \right) = \mathbb{E} \left( ( \overline{X} - \mu )^2 \right)$$
Por lo tanto, es tentador suponer que, puesto que, para cada $i$, $(X_i - \mu) - (X_i - \overline{X}) = \overline{X} - \mu$, a continuación, cada plazo $(X_i - \mu)^2 - (X_i - \overline{X})^2$ contribuiría, "en promedio", $\mathbb{E}\left( ( \overline{X} - \mu )^2 \right) = \sigma^2/n$ para el total de la diferencia. Esto requeriría que justifiquen la tentadoramente de Pitágoras-en busca de la igualdad:
$$\mathbb{E} \left( ( X_i - \mu )^2 \right) = \mathbb{E} \left( ( X_i - \overline{X})^2 + ( \overline{X} - \mu )^2 \right)$$
...aunque admito de buena gana que esto está comenzando a lucir tan tedioso como cualquier algebraico de computación.
(Tomo nota de que en este argumento, yo no uso el hecho de que en este caso $\mathrm{Var}(\sum X_i)=\sum\mathrm{Var}(X_i)$, lo que sin duda es el camino a seguir.)
1 de La típica condición dada es decir que el $X_i$ son independientes e idénticamente distribuidas, pero, AFAICT, la última condición es más fuerte de lo necesario. Para que la materia, como Dilip Sarwate señalado, la independencia de la condición es más fuerte de lo necesario. Es suficiente con que $\mathrm{Var}(\sum X_i)=\sum\mathrm{Var}(X_i)$.
2 El "susto comillas" alrededor de "simple", "tedioso", y "evidente" el objetivo de transmitir la concesión de que estos términos son todos, por supuesto, en el ojo del espectador. Así que la "simplicidad" es la abreviatura de subjetivo simplicidad o percibido simplicidad, etc. También en el ojo del espectador es la cantidad (percibida) de tedio parece demasiado relativo a la (presunta) la simplicidad. Si la diferencia de $\mathbb{E} \left( \sum (X_i - \mu)^2 \right) - \mathbb{E} \left( \sum (X_i - \overline{X})^2 \right)$ había sido, digamos, $\sigma^2/\sqrt{\pi}$, yo no hubiera percibido la algebraicas estándar derivación como particularmente tedioso, debido a que $\sigma^2/\sqrt{\pi}$ no me parece particularmente simple.