8 votos

Mínima varianza del estimador imparcial para el parámetro de escala de una cierta distribución gamma

Deje $X_1, X_2, ..., X_n$ ser una muestra aleatoria de una distribución con p.d.f., $$f(x;\theta)=\theta^2xe^{-x\theta} ; 0<x<\infty, \theta>0$$ Obtain minimum variance unbiased estimator of $\theta$ y examinar si se ha alcanzado?

MI TRABAJO:

El uso de MLE he encontrado el estimador $\theta=\frac{2}{\bar{x}}$ O como $$X\sim Gamma(2, \theta)$$Lo $E(X)=2\theta$ $E(\frac{x}{2})=\theta$ así que puede que me tome $\frac {x}{2}$ como estimador imparcial de $\theta$. Estoy atascado y confundidos necesitan un poco de ayuda.

Gracias u.

13voto

bgee Puntos 327

Si uno está familiarizado con los conceptos de suficiencia e integridad, entonces, este problema no es demasiado difícil. Tenga en cuenta que $f(x; \theta)$ es la densidad de una $\Gamma(2, \theta)$ variable aleatoria. La distribución gamma cae dentro de la clase de la exponencial de la familia de distribuciones, que ofrece amplias declaraciones con respecto a la construcción de manera uniforme insesgados de mínima varianza de los estimadores a través de las nociones de la suficiencia e integridad.

La distribución de una muestra aleatoria de tamaño $n$ a partir de esta distribución es $$ g(x_1,\ldots,x_n; \theta) = \theta^{2n} \exp\Big(-\theta \sum_{i=1}^n x_i + \sum_{i=1}^n \log x_i\Big) $$ que, de nuevo, se ajusta a la exponencial de la familia de clase.

De esto podemos concluir que el $S_n = \sum_{i=1}^n X_i$ es una completa, suficiente estadística para $\theta$. Operativamente, esto significa que si podemos encontrar la función de $h(S_n)$ que es imparcial para $\theta$, entonces sabemos de inmediato a través de la Lehmann-Scheffe teorema que $h(S_n)$ es la única manera uniforme mínima varianza insesgada (UMVU) estimador.

Ahora, $S_n$ $\Gamma(2n, \theta)$ por propiedades estándar de la distribución gamma. (Esto se puede comprobar fácilmente a través del momento de generación de función.)

Además, el sencillo cálculo muestra que $$ \mathbb{E} S_n^{-1} = \int_0^\infty s^{-1} \frac{\theta^{2n} s^{2n - 1}e^{-\theta s}}{\Gamma(2n)} \,\mathrm{d} = \frac{\theta}{2n - 1} \>. $$

Por lo tanto, $h(S_n) = \frac{2n-1}{S_n}$ es imparcial para $\theta$ y debe ser, por tanto, la UMVU estimador.


Anexo: Utilizando el hecho de que $\newcommand{\e}{\mathbb{E}}\e S_n^{-2} = \frac{\theta^2}{(2n-1)(2n-2)}$, llegamos a la conclusión de que el $\mathbb{V}ar(h(S_n)) = \frac{\theta^2}{2(n-1)}$. Por otro lado, la información $I(\theta)$ a partir de una muestra de tamaño uno es fácilmente calculada a ser$-\e \frac{\partial^2 \log f}{\partial \theta^2} = 2 \theta^{-2}$, por lo que la Cramer-Rao límite inferior para una muestra de tamaño $n$ es $$ \mathrm{CRLB}(\theta) = \frac{1}{n I(\theta)} = \frac{\theta^2}{2n} \> . $$

Por lo tanto, $h(S_n)$ ¿ no alcanzar el límite, a pesar de que se trata de cerca, y de hecho, alcanza asintóticamente.

Sin embargo, si nos reajuste de parámetros de la densidad mediante la toma de $\beta = \theta^{-1}$, de modo que $$ f(x;\beta) = \beta^{-2} x e^{-x/\beta},\quad x > 0, $$ a continuación, el UMVU estimador $\beta$ puede ser demostrado ser $\tilde{h}(S_n) = \frac{S_n}{2 n}$. (Acabo de comprobar que es imparcial!) La varianza de este estimador es $\mathbb{V}ar(\tilde{h}(S_n)) = \frac{\beta^2}{2n}$ y esto coincide con el CRLB para $\beta$.

El punto de la adenda es que la capacidad para lograr (o no) el CRLB depende de la parametrización e incluso cuando existe una correspondencia uno a uno entre dos únicas proceso de parametrización, un estimador imparcial para uno puede lograr la Cramer-Rao límite inferior, mientras que el otro no.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X