8 votos

¿Es posible tener un estimador insesgado y acotado?

Tengo un parámetro $\theta$ que se encuentra entre $[0,1]$ . Digamos que puedo realizar un experimento y obtener $\hat{\theta} = \theta + w$ , donde $w$ es una gaussiana estándar. Lo que necesito es una estimación de $\theta$ que es 1) insesgada 2) casi seguramente acotada. El requisito (2) es crucial para mí.

Lo natural es construir un nuevo estimador que establezca $\hat{\theta}$ a $1$ si está por encima de $1$ y a $0$ si está por debajo de $0$ . Pero entonces el estimador no será insesgado. Entonces, ¿qué debo hacer?

Formalmente, la pregunta es si existe una función $f: \mathbb{R} \rightarrow \mathbb{R}$ tal que $f(\hat \theta)$ satisface (1) y (2). Además, ¿la situación sería diferente si extrajera más de una muestra?

3voto

Jeff Bauer Puntos 236

Presentaré las condiciones bajo las cuales un estimador insesgado sigue siendo insesgado, incluso después de ser acotado. Pero no estoy seguro de que supongan algo interesante o útil.

Que un estimador $\hat \theta$ del parámetro desconocido $\theta$ de una distribución continua, y $E(\hat \theta) =\theta$ .

Supongamos que, por alguna razón, en un muestreo repetido queremos que el estimador produzca estimaciones que oscilen en $[\delta_l,\delta_u]$ . Suponemos que $\theta \in [\delta_l,\delta_u]$ y así podemos escribir cuando sea conveniente el intervalo como $[\theta-a,\theta+b]$ con $\{a,b\}$ números positivos pero, por supuesto, desconocidos.

Entonces el estimador restringido es

$$\hat \theta_c = \left\{\begin{matrix} \delta_l & \hat \theta <\delta_l\\\hat \theta &\delta_l \leq \hat \theta \leq \delta_u \\\delta_u & \delta_u < \hat \theta \end{matrix} \right\}$$

y su valor esperado es

$$\begin{align} E(\hat \theta_c) &= \delta_l\cdot P[\hat \theta \leq \delta_l] \\&+ E(\hat \theta \mid \delta_l \leq\hat \theta \leq\delta_u )\cdot P[\delta_l \leq\hat \theta \leq \delta_u] \\ &+\delta_u\cdot P[\hat \theta > \delta_u]\end{align}$$

Defina ahora las funciones indicadoras

$$I_l = I(\hat \theta \leq \delta_l),\;\; I_m = I(\delta_l\leq \hat \theta \leq \delta_l),\;\; I_u = I(\hat \theta > \delta_u)$$

y nota que

$$I_l + I_u = 1- I_m \tag{1}$$

utilizando estas funciones indicadoras, y las integrales, podemos escribir el valor esperado del estimador restringido como ( $f(\hat \theta)$ es la función de densidad de $\hat \theta$ ),

$$E(\hat \theta_c) = \int_{-\infty}^{\infty}\delta_lf(\hat \theta)I_ld\hat \theta + \int_{-\infty}^{\infty}\hat \theta f(\hat \theta)I_md\hat \theta + \int_{-\infty}^{\infty} \delta_uf(\hat \theta)I_ud\hat \theta$$

$$=\int_{-\infty}^{\infty}f(\hat \theta)\Big[\delta_lI_l + \hat \theta I_m + \delta_uI_u\Big]d\hat \theta$$

$$=E\Big[\delta_lI_l + \hat \theta I_m + \delta_uI_u\Big] \tag{2}$$

Descomponiendo el límite superior y el inferior, tenemos

$$E(\hat \theta_c) = E\Big[(\theta-a)I_l + \hat \theta I_m + (\theta+b)I_u\Big]$$

$$=E\Big[\theta\cdot(I_l+I_u) + \hat \theta I_m\Big] -aE(I_l)+bE(I_u) $$

y utilizando $(1)$ ,

$$ = E\Big[\theta\cdot(1-I_m) + \hat \theta I_m\Big] -aE(I_l)+bE(I_u) $$

$$\Rightarrow E(\hat \theta_c) = \theta +E\big[(\hat \theta -\theta)I_m\big]-aE(I_l)+bE(I_u) \tag {3}$$

Ahora bien, como $E(\hat \theta) = \theta$ tenemos

$$E\big[(\hat \theta -\theta)I_m\big] = E\big(\hat \theta I_m\big) - E(\hat \theta)E(I_m)$$

Pero

$$E\big(\hat \theta I_m\big) = E\big(\hat \theta I_m\mid I_m=1\big)E(I_m) = E\big(\hat \theta \big)E(I_m)$$

Por lo tanto, $E\big[(\hat \theta -\theta)I_m\big] =0$ y así

$$\begin{align} E(\hat \theta_c) &= \theta -aE(I_l)+bE(I_u) \\ &= \theta -aP(\hat \theta \leq \delta_l)+bP(\hat \theta > \delta_u)\end{align}\tag {4}$$

o bien

$$ E(\hat \theta_c) = \theta -(\theta-\delta_l)P(\hat \theta \leq \delta_l)+(\delta_u-\theta)P(\hat \theta > \delta_u)\tag {4a}$$

Por lo tanto, desde $(4)$ vemos que para que el estimador restringido también sea insesgado, debemos tener

$$aP(\hat \theta \leq \delta_l) = bP(\hat \theta > \delta_u) \tag {5}$$

¿Cuál es el problema de la condición $(5)$ ? Se trata de los números desconocidos $\{a,b\}$ por lo que en la práctica no podremos determinar realmente un intervalo para acotar el estimador y mantenerlo insesgado.

Pero digamos que se trata de un experimento de simulación controlado, en el que queremos investigar otras propiedades de los estimadores, dada la insesgadez. Entonces podemos "neutralizar" $a$ y $b$ al establecer $a=b$ , que esencialmente crea un intervalo simétrico alrededor del valor de $\theta$ ... En este caso, para lograr la imparcialidad, debemos tener más $P(\hat \theta \leq \delta_l) = P(\hat \theta > \delta_u)$ es decir, debemos tener que la masa de probabilidad del sin restricciones estimador es igual a la izquierda y a la derecha del (simétrico alrededor de $\theta$ ) intervalo...

...y así aprendemos que (como condiciones suficientes), si la distribución del estimador sin restricciones es simétrica en torno al valor real, entonces el estimador restringido en un intervalo simétrico alrededor del valor verdadero también será insesgado... pero esto es casi trivialmente evidente o intuitivo, ¿no?

Se vuelve un poco más interesante, si nos damos cuenta de que el necesario y suficiente condición (dado un intervalo simétrico) a) no requiere una distribución simétrica , sólo hay una masa de probabilidad igual "en las colas" (y esto a su vez no implica que la distribución de la masa en cada cola tenga que ser idéntica) y b) permite que dentro del intervalo, la densidad del estimador puede tener cualquier forma no simétrica que sea consistente con el mantenimiento de la insesgadez - todavía hará que el estimador restringido sea insesgado.

APLICACIÓN: El caso de la OP
Nuestro estimador es $\hat \theta = \theta + w,\;\; w \sim N(0,1)$ y así $\hat \theta \sim N(\theta,1)$ . Entonces, utilizando $(4)$ mientras escribía $a,b$ en términos de $\theta, \delta$ tenemos, para el intervalo de delimitación $[0,1]$ ,

$$E[\hat \theta_c] = \theta -\theta P(\hat \theta \leq 0) +(1-\theta)P(\hat \theta > 1)$$

La distribución es simétrica en torno a $\theta$ . Transformación ( $\Phi()$ es la CDF normalizada)

$$E[\hat \theta_c] = \theta -\theta P(\hat \theta-\theta \leq -\theta) +(1-\theta)P(\hat \theta -\theta > 1-\theta)$$

$$=\theta -\theta \Phi(-\theta) +(1-\theta)[1-\Phi(1-\theta)]$$

Se puede comprobar que los términos adicionales se anulan sólo si $\theta =1/2$ es decir, sólo si el intervalo de delimitación es también simétrico en torno a $\theta$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X