Desde mi entender, ambos son estimadores que se basan en la primera proporcionar una evaluación imparcial y estadística $T(X)$ y la obtención de la raíz de la ecuación:
$$c(X) \left( T(X) - E(T(X)) \right) = 0$$
En segundo lugar, ambos son, en cierto sentido, "no paramétrica", en el que, independientemente de lo que el actual modelo de probabilidad para $X$ puede ser, si usted piensa de $T(\cdot)$ como significativa resumen de los datos, entonces usted va a ser siempre de la estimación de que "la cosa", independientemente de si esa cosa tiene cualquier probabilístico conexión con el actual modelo de probabilidad para los datos. (por ejemplo, la estimación de la media de la muestra de Weibull distribuido fracaso veces sin censura).
Sin embargo, el método de momentos parece insinuar que el $T(X)$ de interés debe ser un momento para que una suposición modelo de probabilidad, sin embargo, se estima con la ecuación de estimación y no de máxima verosimilitud (aunque ellos pueden estar de acuerdo, como es el caso de los medios de variables aleatorias distribuidas normalmente). Llamar a algo un "momento" para mí tiene una connotación de insinuar un modelo de probabilidad. Sin embargo, suponiendo por ejemplo, se tiene el registro de una distribución normal de los datos, es el método de los momentos estimador para el 3er momento central basado en la 3ª muestra de momento, por ejemplo, $$\hat{\mu_3} = \frac{1}{n}\sum_{i=1}^n \left( X_i - \bar{X} \right)^3$$
O hace una estimación de la primera y el segundo momento, transformarlos para estimar la probabilidad de los parámetros del modelo, $\mu$ $\sigma$ (cuyas estimaciones voy a denotar con sombrero de notación) y, a continuación, el uso de estas estimaciones como plugins para derivar la asimetría de la lognormal datos, es decir,
$$ \hat{\mu_3} = \left( \exp \left( \hat{\sigma}^2 \right) + 2\right) \sqrt{\exp \left( \hat{\sigma}^2-1\right)}$$