16 votos

¿Cuál es la diferencia entre el teorema de Rao-Blackwell y el de Lehmann-Scheffé?

Sé que el teorema de Rao-Blackwell establece que un estimador insesgado dado un estadístico suficiente producirá el mejor estimador insesgado. ¿La única diferencia entre Lehmann-Scheffé y Rao-Blackwell es que en Lehmann-Scheffé se necesita un estimador insesgado que se base en un estadístico suficiente completo? También me cuesta entender conceptualmente la definición de un estadístico completo.

0 votos

De la wiki (pero tal vez no estaba en la wiki en el momento de esta publicación): Teorema de Rao-Blackwell - Completitud y varianza mínima de Lehmann-Scheffé

23voto

Michael Hardy Puntos 128804

Rao-Blackwell dice que el valor esperado condicional de un estimador insesgado dado un estadístico suficiente es otro estimador insesgado que es al menos tan bueno. (Creo recordar que se puede abandonar el supuesto de insesgadez y lo único que se pierde es la conclusión de insesgadez; se sigue mejorando el estimador. Así que se puede aplicar a MLEs y otros estimadores posiblemente sesgados). En los ejemplos que se exponen habitualmente, el estimador Rao-Blackwell es inmensamente mejor que el estimador con el que se empieza. Esto se debe a que normalmente se empieza con algo muy crudo, porque es fácil de encontrar, y se sabe que el estimador de Rao-Blackwell será bastante bueno sin importar lo crudo que sea lo que se empieza.

El teorema de Lehmann-Scheffé tiene la hipótesis adicional de que la estadística suficiente es completa es decir, no admite estimadores insesgados de cero. También tiene una conclusión adicional: el estimador que se obtiene es el único mejor estimador insesgado.

Así que si un estimador es completo, insesgado y suficiente, entonces es el mejor estimador insesgado posible. Lehmann-Scheffé te da esa conclusión, pero Rao-Blackwell no. Así que la afirmación de la pregunta sobre lo que dice Rao-Blackwell es incorrecta.

También hay que recordar que en algunos casos es mucho mejor utilizar un estimador sesgado que un estimador insesgado.

5 votos

En cuanto a mi último comentario de arriba, que a veces es mucho mejor utilizar estimadores sesgados que insesgados: Parece que esto no es muy conocido entre los no estadísticos. Escribí un artículo al respecto, dedicado en gran parte a mi propio ejemplo concreto de ese fenómeno: math.umn.edu/~hardy/An_Illuminating_Counterexample.pdf

0 votos

Gracias por el comentario y la respuesta. Me ha aclarado algunas cuestiones conceptuales que tenía.

0 votos

@Michael: (+1) Gracias por el enlace a tu nota. Es un ejemplo interesante. Me ha parecido curioso que hayas optado por contrastar el estimador insesgado de la varianza con el MLE, cuando en el caso particular que has elegido, la opción óptima sería utilizar un denominador de $n+1$ . Además, ¿qué motivó originalmente el problema de la "fuente de luz"?

3voto

user1858991 Puntos 11

Como dijo Michael Hardy, Rao-Blackwell sólo garantiza mejorar (o no perjudicar) su estimador insesgado original. Es decir, empiezas con un estimador insesgado $T(\underline x)$ entonces se mejora tomando el valor esperado condicionado a una estadística suficiente $T'(\underline x) := \mathbb{E}[T(\underline x) | S(\underline x)]$ . Mejorar lo que significa que su varianza será menor o igual que la varianza del estimador original.

Pero ocurre algo curioso si se añade la completitud a la estadística ( $S(\underline x)$ ) - se obtiene singularidad . Es decir, habrá sólo sea un estimador insesgado que será una función de $S$ . Y así, si se parte de algún estimador insesgado, y se utiliza el método Rao-Blackwell con un estadístico suficiente y completo, el resultado será el sólo estimador insesgado para ese parámetro, y tendrá una varianza mejor que cualquiera de los estimadores originales. Así que es (U)MVUE (Estimador insesgado de varianza mínima uniforme).

La exhaustividad es una restricción para una estadística que si $\mathbb{E}(g(\underline x)) = 0$ entonces $g(\underline x) = 0$ siempre, con probabilidad 1 para cualquier $x$ . Tome una distribución Bernoulli - y $g(\underline x) = x_1 - x_2$ . $\mathbb{E}(x_1 -x_2) = 0$ pero $g(x) \neq 0$ cuando hay resultados diferentes entre el primer y el segundo experimento. Sólo es igual a cero cuando son iguales. Así que no es una estadística completa. $h(\underline x) = \sum x_i$ sin embargo es un estadístico completo, ya que si su valor esperado es igual a cero, significa que él mismo es igual a cero con probabilidad de 1.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X