La suficiencia está bien. Pero no entiendo por qué el hecho garantiza que tiene una varianza mínima. ¿Alguien puede explicármelo de forma algo intuitiva?
Respuesta
¿Demasiados anuncios?La idea se basa en las propiedades de la expectativa condicional. Recordemos que por la descomposición de la varianza, tenemos
$$ var \left( E\left[ X_1 | X_2 \right] \right) \leq var(X_1)$$
que básicamente dice que la varianza de la regresión de $X_1$ en $X_2$ no es mayor que la varianza de $X_1$ . Eso es intuitivo, ¿verdad? Estamos utilizando información de otra variable para la predicción, por lo que no podemos hacerlo peor.
Ahora bien, obsérvese que las dos variables aleatorias $X_1$ y $E\left[ X_1 |X_2 \right]$ tienen la misma media $\mu_1$ (recuerde la ley de las expectativas iteradas). Si no supiéramos $\mu_1$ entonces trataríamos de estimarlo a partir de cualquiera de ellos. Dado, sin embargo, que la variable del LHS tiene una varianza mínima, pondríamos más confianza en ella. De hecho, la utilizaríamos como nuestra mejor estimación del parámetro desconocido.
Trasladando esta idea a la suficiencia, vemos que si podemos encontrar una función insesgada del estadístico suficiente, que tome el papel de $X_2$ entonces podemos estimar con una varianza mínima. Por definición, el estadístico suficiente es tal que la probabilidad condicional de su muestra no depende del parámetro desconocido, por lo que se trata de un procedimiento de estimación válido.
Por supuesto, se podría decir que acabamos de demostrar que no podemos hacerlo mejor. Podemos hacer así de bien con una estadística diferente, sin embargo. Esta es una crítica válida, por supuesto, y por eso en la secuencia buscamos si el estimador es único, lo que se puede asegurar por la completitud de la familia de distribuciones.