Si uno está familiarizado con los conceptos de suficiencia e integridad, entonces, este problema no es demasiado difícil. Tenga en cuenta que $f(x; \theta)$ es la densidad de una $\Gamma(2, \theta)$ variable aleatoria. La distribución gamma cae dentro de la clase de la exponencial de la familia de distribuciones, que ofrece amplias declaraciones con respecto a la construcción de manera uniforme insesgados de mínima varianza de los estimadores a través de las nociones de la suficiencia e integridad.
La distribución de una muestra aleatoria de tamaño $n$ a partir de esta distribución es
$$
g(x_1,\ldots,x_n; \theta) = \theta^{2n} \exp\Big(-\theta \sum_{i=1}^n x_i + \sum_{i=1}^n \log x_i\Big)
$$
que, de nuevo, se ajusta a la exponencial de la familia de clase.
De esto podemos concluir que el $S_n = \sum_{i=1}^n X_i$ es una completa, suficiente estadística para $\theta$. Operativamente, esto significa que si podemos encontrar la función de $h(S_n)$ que es imparcial para $\theta$, entonces sabemos de inmediato a través de la Lehmann-Scheffe teorema que $h(S_n)$ es la única manera uniforme mínima varianza insesgada (UMVU) estimador.
Ahora, $S_n$ $\Gamma(2n, \theta)$ por propiedades estándar de la distribución gamma. (Esto se puede comprobar fácilmente a través del momento de generación de función.)
Además, el sencillo cálculo muestra que
$$
\mathbb{E} S_n^{-1} = \int_0^\infty s^{-1} \frac{\theta^{2n} s^{2n - 1}e^{-\theta s}}{\Gamma(2n)} \,\mathrm{d} = \frac{\theta}{2n - 1} \>.
$$
Por lo tanto, $h(S_n) = \frac{2n-1}{S_n}$ es imparcial para $\theta$ y debe ser, por tanto, la UMVU estimador.
Anexo: Utilizando el hecho de que $\newcommand{\e}{\mathbb{E}}\e S_n^{-2} = \frac{\theta^2}{(2n-1)(2n-2)}$, llegamos a la conclusión de que el $\mathbb{V}ar(h(S_n)) = \frac{\theta^2}{2(n-1)}$. Por otro lado, la información $I(\theta)$ a partir de una muestra de tamaño uno es fácilmente calculada a ser$-\e \frac{\partial^2 \log f}{\partial \theta^2} = 2 \theta^{-2}$, por lo que la Cramer-Rao límite inferior para una muestra de tamaño $n$ es
$$
\mathrm{CRLB}(\theta) = \frac{1}{n I(\theta)} = \frac{\theta^2}{2n} \> .
$$
Por lo tanto, $h(S_n)$ ¿ no alcanzar el límite, a pesar de que se trata de cerca, y de hecho, alcanza asintóticamente.
Sin embargo, si nos reajuste de parámetros de la densidad mediante la toma de $\beta = \theta^{-1}$, de modo que
$$
f(x;\beta) = \beta^{-2} x e^{-x/\beta},\quad x > 0,
$$
a continuación, el UMVU estimador $\beta$ puede ser demostrado ser $\tilde{h}(S_n) = \frac{S_n}{2 n}$. (Acabo de comprobar que es imparcial!) La varianza de este estimador es $\mathbb{V}ar(\tilde{h}(S_n)) = \frac{\beta^2}{2n}$ y esto coincide con el CRLB para $\beta$.
El punto de la adenda es que la capacidad para lograr (o no) el CRLB depende de la parametrización e incluso cuando existe una correspondencia uno a uno entre dos únicas proceso de parametrización, un estimador imparcial para uno puede lograr la Cramer-Rao límite inferior, mientras que el otro no.