1 votos

Problema de los estimadores ML y MM

Supongamos que $X_1,\ldots, X_n$ son $\text{iid}$ variables aleatorias, cada una con una función de densidad de probabilidad $f(x) = x^{1}$ donde $0 < x < 1$ , $ > 0.$

a) Demuestra que $\ln L() = n \ln + ( 1)\sum \ln x_i$ y así encontrar el estimador de máxima verosimilitud para $$.

b) Demuestra que $E(X) = \dfrac \theta {\theta + 1}$ y, por tanto, hallar el estimador del método de los momentos para .

c) ¿Son iguales los estimadores ML y MM?


Sé cómo conseguir $E(X)$ . Cómo abordar a) y b) ¿el estimador del método de los momentos para $$? Gracias.


Último EDIT: Resuelto.

1voto

Michael Hardy Puntos 128804

$$\operatorname{E}(X) = \dfrac\theta{\theta+1}$$

$$(\theta+1)\operatorname{E}(X) = \theta,$$

$$\theta\operatorname{E}(X) + \operatorname{E}(X) = \theta$$

$$\theta\operatorname{E}(X) - \theta = \operatorname{E}(X)$$

$$\theta (\operatorname{E}(X)-1) = \operatorname{E}(X)$$

$$ \theta = \frac{\operatorname{E}(X)}{\operatorname{E}(X) -1 }$$

Si tuviste problemas con esa parte, parece ser más una cuestión de álgebra que otra cosa. Para obtener el estimador del método de los momentos, basta con poner la media de la muestra en lugar de la media de la población $\operatorname{E}(X).$

No está claro cuál es su pregunta sobre la parte (a). ¿Se pregunta cómo llegaron a la conclusión $L(\theta)$ ¿es lo que es? De hecho, la función que has mostrado no es lo que se suele denotar $L(\theta),$ sino que tiene la función normalmente denotada como $\ell(\theta),$ que es $\ln L(\theta).$ ¿O se pregunta cómo llegar de esa función a la MLE?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X