Hace poco me sentí muy avergonzado cuando di una respuesta improvisada sobre las estimaciones insesgadas de varianza mínima para los parámetros de una distribución uniforme que era completamente errónea. Afortunadamente fui corregido inmediatamente por cardenal y Henry con Henry proporcionando las respuestas correctas para el OP .
Sin embargo, esto me hizo pensar. Aprendí la teoría de los mejores estimadores insesgados en mi clase de matemáticas de posgrado en Stanford hace unos 37 años. Recuerdo el teorema de Rao-Blackwell, el límite inferior de Cramer-Rao y el teorema de Lehmann-Scheffe. Pero como estadístico aplicado no pienso mucho en las UMVUEs en mi vida diaria, mientras que la estimación de máxima verosimilitud aparece mucho.
¿Por qué? ¿Hacemos demasiado hincapié en la teoría UMVUE en la escuela de posgrado? Yo creo que sí. En primer lugar, la insesgadez no es una propiedad crucial. Muchos MLEs perfectamente buenos están sesgados. Los estimadores de contracción de Stein son sesgados, pero dominan la MLE insesgada en términos de pérdida de error cuadrático medio. Es una teoría muy bonita (estimación UMVUE), pero muy incompleta y creo que poco útil. ¿Qué piensan los demás?