Como dijo Michael Hardy, Rao-Blackwell sólo garantiza mejorar (o no perjudicar) su estimador insesgado original. Es decir, empiezas con un estimador insesgado $T(\underline x)$ entonces se mejora tomando el valor esperado condicionado a una estadística suficiente $T'(\underline x) := \mathbb{E}[T(\underline x) | S(\underline x)]$ . Mejorar lo que significa que su varianza será menor o igual que la varianza del estimador original.
Pero ocurre algo curioso si se añade la completitud a la estadística ( $S(\underline x)$ ) - se obtiene singularidad . Es decir, habrá sólo sea un estimador insesgado que será una función de $S$ . Y así, si se parte de algún estimador insesgado, y se utiliza el método Rao-Blackwell con un estadístico suficiente y completo, el resultado será el sólo estimador insesgado para ese parámetro, y tendrá una varianza mejor que cualquiera de los estimadores originales. Así que es (U)MVUE (Estimador insesgado de varianza mínima uniforme).
La exhaustividad es una restricción para una estadística que si $\mathbb{E}(g(\underline x)) = 0$ entonces $g(\underline x) = 0$ siempre, con probabilidad 1 para cualquier $x$ . Tome una distribución Bernoulli - y $g(\underline x) = x_1 - x_2$ . $\mathbb{E}(x_1 -x_2) = 0$ pero $g(x) \neq 0$ cuando hay resultados diferentes entre el primer y el segundo experimento. Sólo es igual a cero cuando son iguales. Así que no es una estadística completa. $h(\underline x) = \sum x_i$ sin embargo es un estadístico completo, ya que si su valor esperado es igual a cero, significa que él mismo es igual a cero con probabilidad de 1.
0 votos
De la wiki (pero tal vez no estaba en la wiki en el momento de esta publicación): Teorema de Rao-Blackwell - Completitud y varianza mínima de Lehmann-Scheffé