2 votos

Estimador de máxima verosimilitud para $\theta$

5. Encuentre la MLE para $\theta$ basado en una muestra aleatoria de tamaño $n$ de una distribución con pdf $$f(x; \, \theta) = \begin{cases} 2\theta^{2} x^{-3} & \theta \leqslant x \\ 0 & x < \theta;\, 0 < \theta \end{cases}$$

Estoy practicando los estimadores de máxima verosimilitud para un próximo examen. La pregunta que me ha dejado perplejo es la de arriba.

Intenté lo siguiente:

$$\ln(L(\theta)) = n\ln2\, +\,2n\ln(\theta)\,-\,3\sum_{i=1}^n x_i, $$ y se deduce que $$\frac{d\,\ln(\theta)}{d\theta} = \frac{2n}{\theta}.$$ Esto no daría ninguna información importante si se pone a cero. He comprobado la solución y parece que la respuesta correcta es $\hat\theta = X_{1:n}$ . ¿Podría explicarme cómo se ha llegado a esto?

3voto

Taylor Puntos 692

En primer lugar, tienes la probabilidad logarítmica equivocada. Es posible que desee volver y comprobar esa parte.

En segundo lugar, esta probabilidad, cuando se piensa en una función en $\theta$ sólo es distinto de cero cuando $\theta$ es menor que todos los puntos de datos. Esto significa que $\theta \le x_i$ para todos $i$ lo que equivale a $$ \theta \le \min_i\{x_i\}. $$ También hay que tener en cuenta $\theta$ es positivo. Estos puntos son críticos cuando se considera la derivada, porque es posible que no puedas encontrar una raíz para la derivada en este intervalo. En otras palabras, es posible que no puedas simplemente establecerla igual a cero y resolver para $\theta$ . Si ese es el caso, intente hacer un dibujo de la probabilidad con $\theta$ en el eje independiente, prestando especial atención a los límites.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X