2 votos

Comprobación de si el Método de los Momentos y los Estimadores de Máxima Verosimilitud están sesgados y/o son consistentes

Hola estoy tratando de comprobar si el Método de los Momentos y los Estimadores de Máxima Verosimilitud para el parámetro $\theta$ de una muestra con densidad de población $$f(x;\theta) = \frac 2 \theta x e^{\frac {-x^2}{\theta}} $$ para $x \geq 0$ , $\theta > 0$ con $\theta$ siendo desconocido.

Tomando el primer momento de esta función he encontrado que el estimador del Método de los Momentos es $\hat{\theta}_1 = \frac{4(\bar{X}^2)}{\pi}$ y resolviendo para el Estimador de Máxima Verosimilitud que el Estimador sea $\hat{\theta}_2 = 2\bar Y$ donde $Y$ es justo el cuadrado de la Muestra $X_i$ es decir $Y = X_i^2$ .

Pasos para resolver el método de los momentos: Tomé el primer momento, es decir

$M_1 = E[x] = $$ \int_0^infty{\frac 2 \theta x^2 e^{\frac {-x^2}{\theta}}dx}$

Resolviendo esta integral con $u$ sustitución con $u = \frac{-x}{2}, du = \frac{-1}{2}, v = e^\frac{x^2}{\theta}, dv = -2xe^\frac{-x^2}{\theta}$

$\int_0^\infty{\frac 2 \theta x^2 e^{\frac {-x^2}{\theta}}dx} = [-\frac{xe^\frac{-x^2}{\theta}}{2\theta} - \frac{\sqrt{\pi \theta}}{4}]^\infty_0 = \frac{\sqrt{\pi} {\sqrt{\theta}}}{2}$

Así que $E[x] = \bar{x} = \frac{\sqrt{\pi} {\sqrt{\theta}}}{2}$ da el Estimador del Método de los Momentos $\hat{\theta_1} = \frac{4(\bar{X}^2)}{\pi}$

Pasos para resolver la máxima probabilidad:

$lnL(\theta)=(\prod_{i=1}^n\frac 2 \theta x e^{\frac {-x^2}{\theta}}) = -n ln((2\theta)) + \sum_{i=1}^nx_i - \frac {1} {\theta} \sum_{i=1}^nx^2_i$

$\frac {dlnL(\theta)}{d\theta} = \frac{-n}{2\theta} + \frac{1}{\theta^2} \sum_{i=1}^nx^2_i$

Configurar $\frac {dL(\theta)}{d\theta} = 0$ Encontré el Estimador de Máxima Verosimilitud $\hat{\theta_2}$ para ser $\hat{\theta_2} = \frac{2\sum_{i=1}^nx^2_i}{n}$ , de modo que si $Y = X_i^2$ entonces $\hat{\theta_2} = 2\bar{Y}$ .

Estoy tratando de comprobar si estos estimadores para $\theta$ de esta función de densidad son insesgados y/o consistentes pero estoy perdido en cómo hacerlo, cualquier ayuda sería muy apreciada.

1voto

heropup Puntos 29437

Su cálculo de $\hat \theta_2$ sigue sin estar bien. Deberías tener $$\mathcal L(\theta \mid \boldsymbol x) = 2^n \theta^{-n} \left ( \prod_{i=1}^n x_i \right) \exp \left( -\frac{1}{\theta} \sum_{i=1}^n x_i^2 \right) \propto \theta^{-n} \exp \left( - \frac{n \overline{x^2}}{\theta} \right),$$ por lo que su probabilidad logarítmica es $$\ell (\theta \mid \boldsymbol x) = -n \log \theta - \frac{n \overline{x^2}}{\theta},$$ y localizando los puntos críticos se obtiene $$0 = \frac{\partial \ell}{\partial \theta} = -\frac{n}{\theta} + \frac{n \overline{x^2}}{\theta^2} = n \left( \frac{\overline{x^2} - \theta}{\theta^2} \right),$$ por lo que $\hat \theta_2 = \overline{x^2} = \frac{1}{n} \sum_{i=1}^n x_i^2.$ No hay ningún factor adicional de $2$ . Obsérvese cómo elimino todos los factores de $\mathcal L$ que no son funciones de $\theta$ lo que simplifica todos los cálculos posteriores (y evita el error de cálculo que ha cometido con el factor adicional de $2$ ).

Para calcular el sesgo de estos estimadores, basta con utilizar las propiedades básicas: En primer lugar, observar $$\operatorname{E}[X] = \frac{\sqrt{\pi \theta}}{2}$$ como has escrito. Puede comprobar que $$\operatorname{E}[X^2] = \theta.$$ Ahora vemos que $$\operatorname{E}[\hat\theta_2] = \operatorname{E}\left[\frac{1}{n} \sum_{i=1}^n X_i^2\right] = \frac{1}{n} \sum_{i=1}^n \operatorname{E}[X_i^2] = \frac{1}{n} \cdot n \theta = \theta,$$ así que $\hat\theta_2$ es imparcial. Este es el cálculo más evidente, por lo que hemos empezado con él. En cuanto a $\hat \theta_1$ debemos tener cuidado de escribir $$\operatorname{E}[\hat\theta_1] = \frac{4}{\pi} \operatorname{E}\,\left[\left(\frac{1}{n} \sum_{i=1}^n X_i\right)^2\right] = \frac{4}{\pi n^2} \sum_{i=1}^n \sum_{j=1}^n \operatorname{E}[X_i X_j].$$ Nótese que aún no hemos utilizado la independencia de la muestra, sólo la linealidad de la expectativa. Cuando $i \ne j$ , $X_i$ y $X_j$ son independientes, y $$\operatorname{E}[X_i X_j] = \operatorname{E}[X_i]\operatorname{E}[X_j] = \frac{\pi}{4}\theta.$$ Pero cuando $i = j$ no es el caso y tenemos $$\operatorname{E}[X_i X_j] = \operatorname{E}[X_i^2] = \theta.$$ Dado que el primer caso se produce $n(n-1)$ veces en la suma doble, y la segunda ocurre $n$ veces, obtenemos $$\operatorname{E}[\hat\theta_1] = \frac{4}{\pi n^2} \left( n(n-1) \frac{\pi}{4}\theta + n \theta \right) =\left( 1 + \frac{4 - \pi}{\pi n} \right) \theta .$$ Esto, por supuesto, demuestra $\hat\theta_1$ es parcial. ¿Es asintóticamente sesgado o insesgado?

En cuanto a la consistencia del estimador, debes demostrar con métodos similares que la varianza disminuye al aumentar el tamaño de la muestra $n$ . Para ello, hay que calcular $\operatorname{E}[\hat\theta_1^2]$ y $\operatorname{E}[\hat\theta_2^2]$ . Esto se deja como un ejercicio.


El segundo momento de $\hat \theta_1$ es $$\operatorname{E}[\hat\theta_1^2] = \frac{4^2}{\pi^2} \operatorname{E}\,\left[\left(\frac{1}{n}\sum_{i=1}^n X_i\right)^4\right].$$ Utiliza la misma técnica que para el primer momento: $$\left(\sum_{i=1}^n X_i\right)^4 = \sum_{g=1}^n \sum_{h=1}^n \sum_{i=1}^n \sum_{j=1}^n X_g X_h X_i X_j.$$ ¿Cuántos de estos sumandos corresponden a todos los índices distintos? ¿Cuántos corresponden exactamente a dos iguales? ¿Cuántos corresponden a dos pares iguales? ¿Cuántos corresponden a exactamente tres iguales? ¿Cuántos corresponden a los cuatro iguales? ¿Cuál es la expectativa de un término general en cada caso?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X