Deje $\hat{\theta}$ ser imparcial estimador de un parámetro desconocido $\theta\in\mathbb{R}$. Asumiendo $\theta\neq 0$ tenemos la siguiente función de pérdida $$L(\theta,a) = \dfrac{(a - \theta)^2}{\theta^2}$$
Ejercicio: Supongamos que $0\leq R(\theta,T) <\infty$ para cualquier estimador $T$. Mostrar que $\hat{\theta}$ no es minimax.
Solución: consideramos que un estimador $T = c\hat{\theta}$. En este caso la función de riesgo está dado por $$R(\theta, c\hat\theta) = \operatorname{E}_\theta\bigg[\dfrac{(c\hat\theta - \theta)^2}{\theta^2}\bigg] \\= (1-c)^2 + c^2R(\theta,\hat\theta)$$
donde el segundo término se desvanece debido a $R(\theta, \hat\theta) = 0$, como $\hat\theta$ es imparcial. Buscamos una constante $c$ tal que $$\sup_{\theta \in \mathbb{R}}R(\theta, c\hat\theta) < \sup_{\theta\in\mathbb{R}}R(\theta, \hat\theta),$$
que es equivalente a \begin{equation}\sup_{\theta\in\mathbb{R}}R(\theta, \hat\theta) > \dfrac{(1-c)^2}{1-c^2} = \dfrac{1-c}{1+c} =:g(c).\tag{1}\end{equation} Desde $g:[0,1]\to[0,1]$ es continua y decreciente, $(1)$ tiene para todos los $c\in(0,1)$ si $\sup_\theta R(\theta,\hat\theta_n) > 1.$ Si $\sup_\theta R(\theta,\hat\theta_n) \leq 1$, entonces existe un $c^{*}$ tal que $(1)$ tiene para todos los $c\geq c^{*}$.
Lo que no entiendo acerca de esta solución:
Tenemos que $R(\theta, \hat\theta) = 0$ desde $\hat\theta$ es imparcial, y $(R,c\hat\theta) = c^2 - 2c + 1$, como se indica en la solución. Ahora, $c^2 -2c + 1 \geq 0,$ así que no hay $c^{*}$ tal que $R(\theta, c\hat\theta) < R(\theta, \hat\theta).$ Obviamente me estoy perdiendo algo, como no entiendo el subíndice $n$ que es usado en el último par de líneas en la solución. A mí me parece que, dado que en esta solución $R(\theta,\hat\theta)$ puede ser mayor que cero, $R(\theta,\hat\theta)$ depende de $\theta$.
Pregunta: Es la solución correcta? Si es así; ¿qué hay de malo con mi razonamiento? ¿Cómo puede el $R(\theta, \hat\theta)> 0$?
Gracias!