18 votos

¿Se hace demasiado hincapié en la teoría de la estimación insesgada de mínima varianza en la escuela de posgrado?

Hace poco me sentí muy avergonzado cuando di una respuesta improvisada sobre las estimaciones insesgadas de varianza mínima para los parámetros de una distribución uniforme que era completamente errónea. Afortunadamente fui corregido inmediatamente por cardenal y Henry con Henry proporcionando las respuestas correctas para el OP .

Sin embargo, esto me hizo pensar. Aprendí la teoría de los mejores estimadores insesgados en mi clase de matemáticas de posgrado en Stanford hace unos 37 años. Recuerdo el teorema de Rao-Blackwell, el límite inferior de Cramer-Rao y el teorema de Lehmann-Scheffe. Pero como estadístico aplicado no pienso mucho en las UMVUEs en mi vida diaria, mientras que la estimación de máxima verosimilitud aparece mucho.

¿Por qué? ¿Hacemos demasiado hincapié en la teoría UMVUE en la escuela de posgrado? Yo creo que sí. En primer lugar, la insesgadez no es una propiedad crucial. Muchos MLEs perfectamente buenos están sesgados. Los estimadores de contracción de Stein son sesgados, pero dominan la MLE insesgada en términos de pérdida de error cuadrático medio. Es una teoría muy bonita (estimación UMVUE), pero muy incompleta y creo que poco útil. ¿Qué piensan los demás?

3voto

Martin Puntos 144

Sabemos que

Si $X_1,X_2, \dots X_n$ sea una muestra aleatoria de $Poisson(\lambda)$ entonces para cualquier $\alpha \in (0,1),~T_\alpha =\alpha \bar X+(1-\alpha)S^2$ es una UE de $\lambda$

Por lo tanto, existen infinitas UE's de $\lambda$ . Ahora una pregunta ocurre ¿cuál de ellos debemos elegir? por lo que llamamos UMVUE. A lo largo de la imparcialidad no es una buena propiedad, pero UMVUE es una buena propiedad. Pero no es extremadamente buena.

Si $X_1,X_2, \dots X_n$ sea una muestra aleatoria de $N(\mu, \sigma^2)$ entonces el estimador de MSE mínimo de la forma $T_\alpha =\alpha S^2$ con $(n-1)S^2=\sum_{i=1}^{n}(X_i-\bar X)^2$ para el parámetro $\sigma^2$ es $\frac{n-1}{n+1}S^2=\frac{1}{n+1}\sum_{i=1}^{n}(X_i-\bar X)^2$ Pero es parcial es decir no es UMVUE aunque es el mejor en términos de MSE mínimo.

Tenga en cuenta que Teorema de Rao-Blackwell dice que para encontrar el UMVUE podemos concentrarnos sólo en aquellos UE que son función de la estadística suficiente es decir el UMVUE es el estimador que tiene la mínima varianza entre todos los UEs que son función de la estadística suficiente. Por lo tanto, el UMVUE es necesariamente una función de una estadística suficiente.

Tanto MLE como UMVUE son buenos desde un punto de vista. Pero nunca podemos decir que uno de ellos sea mejor que el otro. En estadística nos enfrentamos a datos inciertos y aleatorios. Por tanto, siempre hay margen de mejora. Podemos obtener un estimador mejor que el MLE y el UMVUE.

Creo que en la escuela de posgrado no se hace demasiado hincapié en la teoría de la UMVUE.Es puramente mi opinión personal. Creo que la etapa de graduación es una etapa de aprendizaje. Por lo tanto, un estudiante graduado debe tener una buena base sobre UMVUE y otros estimadores,

2voto

Ay-Ay-Ron Puntos 1

Quizás el artículo de Brad Efron "Maximum Likelihood and Decision Theory" pueda ayudar a aclarar esto. Brad mencionó que una de las principales dificultades del UMVUE es que, en general, es difícil de calcular y, en muchos casos, no existe.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X