11 votos

¿Cómo puedo saber cuál es el método de estimación de parámetros para elegir?

Hay un par de métodos para la estimación de parámetros por ahí. MLE, UMVUE, Mamá, la decisión de la teoría, y otros, todos parecen tener bastante lógica caso de por qué son útiles para la estimación de parámetros. Es cualquier método mejor que los demás, o es sólo una cuestión de cómo definimos lo que es el "mejor ajuste" estimador de (similar a cómo minimizar ortogonal errores produce estimaciones diferentes de un mínimos cuadrados ordinarios)?

12voto

Berek Bryan Puntos 349

Hay una ligera confusión de las dos cosas aquí: métodos para la obtención de los estimadores, y los criterios para la evaluación de los estimadores. De máxima verosimilitud (ML) y el método de los momentos (MoM) son formas de obtener los estimadores; de manera Uniforme mínima varianza unbiasedness (UMVU) y la teoría de la decisión son los criterios para la evaluación de los diferentes estimadores una vez que los tenga, pero que no dicen cómo se derivan de ellos.

De los métodos para la obtención de estimadores, ML generalmente produce estimadores que son más eficientes (es decir, reducir la varianza) que Mamá si sabes el modelo bajo el cual los datos fueron derivados (los datos de proceso de generación' (DGP) en la jerga). Pero Mamá hace menos supuestos sobre el modelo; como su nombre lo indica, sólo utiliza uno o más momentos, por lo general sólo la media, o simplemente la media y la varianza, por lo que es a veces más robusta si usted no está seguro acerca de la DGP. Puede haber más de una Mamá estimador para el mismo problema, mientras que si usted sabe la DGP, sólo hay un estimador ML.

De los métodos para la evaluación de los peritos, la decisión de la teoría depende de tener una pérdida de la función a utilizar para juzgar su estimador, aunque los resultados pueden ser bastante robusto para un rango de "razonable" la pérdida de funciones. UMVU estimadores a menudo ni siquiera existe; en muchos casos no es ningún estimador imparcial que siempre ha de varianza mínima. Y el criterio de unbiasedness también es de dudosa utilidad, ya que no es invariante a transformaciones. Por ejemplo, preferiría un estimador imparcial de la odds ratio, o de la log odds ratio? Los dos van a ser diferentes.

1voto

patfla Puntos 1

Yo diría que el tipo de estimador depende de un par de cosas:

  1. ¿Cuáles son las consecuencias de la obtención de la estimación de malo? (por ejemplo, es menos malo si el estimador es demasiado alto, en comparación a ser demasiado baja? o son indiferentes acerca de la dirección del error? si un error es dos veces más grande, es dos veces tan malo? es el porcentaje de error o error absoluto que es importante? Es la estimación sólo un paso intermedio que es necesaria para la predicción? es el gran ejemplo de comportamiento más o menos importante que la pequeña muestra de comportamiento?)
  2. ¿Cuál es su información previa acerca de la cantidad que usted está estimando? (por ejemplo, cómo es que los datos relacionados funcionalmente a su cantidad? ¿sabe usted si la cantidad es positiva? discreto? tiene usted estima que esta cantidad antes? la cantidad de datos que tiene usted? ¿Hay algún grupo de la "invariancia" la estructura de los datos?)
  3. ¿Qué software? (por ejemplo, no es bueno lo que sugiere MCMC si usted no tiene el software para hacerlo, o el uso de un GLMM si usted no sabe cómo hacerlo.)

Los primeros dos puntos son específicos al contexto, y por pensar acerca de su aplicación específica, que generalmente será capaz de definir ciertas propiedades que le gustaría que su estimador de tener. Entonces usted puede elegir el estimador de que en realidad se puede calcular, que tiene muchas de las propiedades que desee.

Creo que la falta de contexto que un curso de enseñanza tiene con la estimación, significa que a menudo "default" criterio se utiliza, asimismo, para la información previa (la más evidente "defecto" es que sabemos que la distribución de muestreo de los datos). Habiendo dicho eso, algunos de los métodos predeterminados son buenas, especialmente si usted no sabe lo suficiente sobre el contexto. Pero si hacer conocer el contexto, y usted tiene las herramientas para incorporar ese contexto, entonces usted debe, de lo contrario puede obtener resultados inesperados (porque de lo que se omite).

El yo no soy un gran fan de MVUE como una regla general, ya que a menudo tienen que sacrificar demasiado la varianza para obtener imparcial-ness. Por ejemplo, imagine que usted está lanzando dardos a un tablero de dardos, y usted desea golpear el ojo de toros. Suponiendo que la desviación máxima de el ojo de toros es de 6cm para un determinado tirar de estrategia, pero el centro de la dart puntos es 1 cm por encima de la diana. Esto no es MVUE, debido a que el centro debe estar en la diana. Pero supongamos que en la orden de desplazamiento de la distribución hacia abajo 1cm (sobre el promedio), usted tiene que aumentar su radio de al menos 10 cm (para que el error máximo es ahora de 10 cm, y no 6cm). Este es el tipo de cosa que puede suceder con MVUE, a menos que la varianza ya es pequeño. Supongamos que yo era mucho más preciso tiro, y podría estrecho mi error de 0.1 cm. Ahora el sesgo que realmente importa, porque nunca me da en la diana!

En resumen, para mí, el sesgo de asuntos únicos, cuando es pequeño en comparación con la varianza. Y por lo general, sólo se vuelven pequeñas variaciones cuando usted tiene una muestra grande.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X