8 votos

¿Lo que ' s la diferencia entre la estimación de ecuaciones y el método de estimadores de momentos?

Desde mi entender, ambos son estimadores que se basan en la primera proporcionar una evaluación imparcial y estadística $T(X)$ y la obtención de la raíz de la ecuación:

$$c(X) \left( T(X) - E(T(X)) \right) = 0$$

En segundo lugar, ambos son, en cierto sentido, "no paramétrica", en el que, independientemente de lo que el actual modelo de probabilidad para $X$ puede ser, si usted piensa de $T(\cdot)$ como significativa resumen de los datos, entonces usted va a ser siempre de la estimación de que "la cosa", independientemente de si esa cosa tiene cualquier probabilístico conexión con el actual modelo de probabilidad para los datos. (por ejemplo, la estimación de la media de la muestra de Weibull distribuido fracaso veces sin censura).

Sin embargo, el método de momentos parece insinuar que el $T(X)$ de interés debe ser un momento para que una suposición modelo de probabilidad, sin embargo, se estima con la ecuación de estimación y no de máxima verosimilitud (aunque ellos pueden estar de acuerdo, como es el caso de los medios de variables aleatorias distribuidas normalmente). Llamar a algo un "momento" para mí tiene una connotación de insinuar un modelo de probabilidad. Sin embargo, suponiendo por ejemplo, se tiene el registro de una distribución normal de los datos, es el método de los momentos estimador para el 3er momento central basado en la 3ª muestra de momento, por ejemplo, $$\hat{\mu_3} = \frac{1}{n}\sum_{i=1}^n \left( X_i - \bar{X} \right)^3$$

O hace una estimación de la primera y el segundo momento, transformarlos para estimar la probabilidad de los parámetros del modelo, $\mu$ $\sigma$ (cuyas estimaciones voy a denotar con sombrero de notación) y, a continuación, el uso de estas estimaciones como plugins para derivar la asimetría de la lognormal datos, es decir,

$$ \hat{\mu_3} = \left( \exp \left( \hat{\sigma}^2 \right) + 2\right) \sqrt{\exp \left( \hat{\sigma}^2-1\right)}$$

5voto

AdamSane Puntos 1825

El más común de la justificación del método de los momentos es simplemente la ley de los grandes números, que podría hacer de su sugerencia de que la estimación de $\mu_3$ $\hat{\mu}_3$ "método de los momentos" (y yo estaría inclinado a llamar a la madre en cualquier caso).

Sin embargo, un número de libros y documentos, como este por ejemplo (y en alguna medida a la página de la wikipedia sobre el método de los momentos) implica que usted tome el menor $k$ momentos* y estimar las cantidades requeridas por el modelo de probabilidad de que, como se implica por parte de la estimación de $\mu_3$ a partir de los dos primeros momentos.

*(si es necesario para estimar el $k$ parámetros para obtener la cantidad necesaria)

--

En definitiva, supongo que se trata de "¿quién define lo que cuenta como método de los momentos?"

Nos ven Pearson? No buscamos en el más común de los convenios? Aceptamos cualquier definición? --- Cualquier de las opciones que tiene problemas, y beneficios.


El trozo interesante, para mí, es si uno puede siempre o casi siempre volver a parametrizar un paramétrica de la familia para caracterizar una estimación problema en EE como la solución para los momentos de un (posiblemente extraño) función de distribución?

Es evidente que hay grandes clases de distribución para que el método de los momentos sería inútil.

Para un ejemplo obvio, la media de la distribución de Cauchy es indefinido.

Incluso en los momentos en que existen y son finitos, podría haber un gran número de situaciones en las que el conjunto de ecuaciones $f(\mathbf{\theta},\mathbf{y})=0$ 0 soluciones (creo que de alguna curva que nunca cruza el eje de x) o múltiples soluciones (uno que cruza el eje en varias ocasiones -- a pesar de las múltiples soluciones no son necesariamente un problema insuperable si usted tiene una manera de elegir entre ellos).

Por supuesto, también comúnmente vemos situaciones donde existe una solución, pero no se encuentran en el espacio de parámetros (incluso puede haber casos donde nunca hay una solución en el espacio de parámetros, pero no sé de ninguna, sería una pregunta interesante para descubrir si algunos de estos casos existen).

Me imagino que puede haber situaciones más complicadas aún, a pesar de que no tengo ninguna en mente en el momento.

1voto

kjetil b halvorsen Puntos 7012

Ecuaciones de estimación es un método más general , no especifica de donde obtener la ecuación de estimación. Máxima verosimilitud es también un ejemplo de estimación de ecuaciones, ya que conduce a la ecuación de resultado. Diversas formas de cuasi (o pseudo)-probabilidad son otros ejemplos. como son el método de momentos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X