Considerar la estimación de la varianza de un RV $X$, comenzamos con la varianza de la muestra:
$$ \begin{array}{ll} V_1 & = \frac{1}{N-1} \sum_{i=1}^N (X_i - \bar{X})^2\\ & = \frac{1}{N-1} \left(\sum_{i=1}^N X_i^2 - 2\bar{X}\sum_{i=1}^N X_i + N\bar{X}^2 \right)\\ &= \frac{1}{N-1} \left(\sum_{i=1}^N X_i^2 - N\bar{X}^2\right) \end{array} $$
Donde $\bar{X} = N^{-1}\sum_{i=1}^N X_i$.
Mi pregunta es, a imaginar que había una mejor estimación de la media de la población es: $\hat{X}$ que fue garantizado para tener menor variación de la media de la muestra $\bar{X}$. Podría ser utilizado para obtener una mejor estimación de la varianza de la población? También, observe cómo la anterior derivación ya no se sostiene:
** Corrección: pregunta anterior utilizarse $\frac{1}{N-1}$, lo que sólo es necesario si la media de la muestra se utiliza. ** $$ \begin{array}{ll} V_2 & = \frac{1}{N} \sum_{i=1}^N (X_i - \hat{X})^2\\ & = \frac{1}{N} \left(\sum_{i=1}^N X_i^2 - 2\hat{X}\sum_{i=1}^N X_i + N\hat{X}^2 \right)\\ &\ne \frac{1}{N} \left(\sum_{i=1}^N X_i^2 - N\hat{X}^2\right) \end{array} $$
A menos $\bar{X} = \hat{X}$. También, hay una manera de medir la diferencia entre el $var(V_1)$ $var(V_2)$ como una función de la $var(\bar{X})$$var(\hat{X})$?
Edit: voy a motivar aún más ¿por qué esto podría ser útil. Imaginemos que tenemos $K$ diferentes estimadores de la misma media que, por simplicidad, imagino que cada uno de estos son de importancia muestreo de los estimadores de cada uno de ellos con una propuesta diferente distribución. Así que cada uno de estos estimadores es muy distinta a la varianza, y quiero que sepan que el estimador es el mejor (o puede estar).
Podríamos tomar a $N$ de las muestras de cada estimador y estimación de la varianza de la muestra para cada uno de ellos utilizando el estimador $V_1$. Alternativamente, se podrían utilizar las muestras de todos ellos en conjunto para obtener una mejor estimación de la media de población y el uso de $V_2$ lugar. Me sería de esperar que esto sería ventajoso si $K$ es muy grande (como $K = N^2$).
Consideremos un ejemplo simple, donde un estimador de muy alta varianza y devuelve $0$ en casi todas las muestras, excepto con muy baja probabilidad devuelve un valor enorme (lo suficiente para hacer una estimación insesgada todavía). La varianza de la muestra ($V_1$) para este estimador es probable que ser cero para cualquier razonables $N$ donde $V_2$ indicaría que el estimador es realmente muy buenos.