Presentaré las condiciones bajo las cuales un estimador insesgado sigue siendo insesgado, incluso después de ser acotado. Pero no estoy seguro de que supongan algo interesante o útil.
Que un estimador ˆθ del parámetro desconocido θ de una distribución continua, y E(ˆθ)=θ .
Supongamos que, por alguna razón, en un muestreo repetido queremos que el estimador produzca estimaciones que oscilen en [δl,δu] . Suponemos que θ∈[δl,δu] y así podemos escribir cuando sea conveniente el intervalo como [θ−a,θ+b] con {a,b} números positivos pero, por supuesto, desconocidos.
Entonces el estimador restringido es
ˆθc={δlˆθ<δlˆθδl≤ˆθ≤δuδuδu<ˆθ}
y su valor esperado es
E(ˆθc)=δl⋅P[ˆθ≤δl]+E(ˆθ∣δl≤ˆθ≤δu)⋅P[δl≤ˆθ≤δu]+δu⋅P[ˆθ>δu]
Defina ahora las funciones indicadoras
Il=I(ˆθ≤δl),Im=I(δl≤ˆθ≤δl),Iu=I(ˆθ>δu)
y nota que
Il+Iu=1−Im
utilizando estas funciones indicadoras, y las integrales, podemos escribir el valor esperado del estimador restringido como ( f(ˆθ) es la función de densidad de ˆθ ),
E(ˆθc)=∫∞−∞δlf(ˆθ)Ildˆθ+∫∞−∞ˆθf(ˆθ)Imdˆθ+∫∞−∞δuf(ˆθ)Iudˆθ
=∫∞−∞f(ˆθ)[δlIl+ˆθIm+δuIu]dˆθ
=E[δlIl+ˆθIm+δuIu]
Descomponiendo el límite superior y el inferior, tenemos
E(ˆθc)=E[(θ−a)Il+ˆθIm+(θ+b)Iu]
=E[θ⋅(Il+Iu)+ˆθIm]−aE(Il)+bE(Iu)
y utilizando (1) ,
=E[θ⋅(1−Im)+ˆθIm]−aE(Il)+bE(Iu)
⇒E(ˆθc)=θ+E[(ˆθ−θ)Im]−aE(Il)+bE(Iu)
Ahora bien, como E(ˆθ)=θ tenemos
E[(ˆθ−θ)Im]=E(ˆθIm)−E(ˆθ)E(Im)
Pero
E(ˆθIm)=E(ˆθIm∣Im=1)E(Im)=E(ˆθ)E(Im)
Por lo tanto, E[(ˆθ−θ)Im]=0 y así
E(ˆθc)=θ−aE(Il)+bE(Iu)=θ−aP(ˆθ≤δl)+bP(ˆθ>δu)
o bien
E(ˆθc)=θ−(θ−δl)P(ˆθ≤δl)+(δu−θ)P(ˆθ>δu)
Por lo tanto, desde (4) vemos que para que el estimador restringido también sea insesgado, debemos tener
aP(ˆθ≤δl)=bP(ˆθ>δu)
¿Cuál es el problema de la condición (5) ? Se trata de los números desconocidos {a,b} por lo que en la práctica no podremos determinar realmente un intervalo para acotar el estimador y mantenerlo insesgado.
Pero digamos que se trata de un experimento de simulación controlado, en el que queremos investigar otras propiedades de los estimadores, dada la insesgadez. Entonces podemos "neutralizar" a y b al establecer a=b , que esencialmente crea un intervalo simétrico alrededor del valor de θ ... En este caso, para lograr la imparcialidad, debemos tener más P(ˆθ≤δl)=P(ˆθ>δu) es decir, debemos tener que la masa de probabilidad del sin restricciones estimador es igual a la izquierda y a la derecha del (simétrico alrededor de θ ) intervalo...
...y así aprendemos que (como condiciones suficientes), si la distribución del estimador sin restricciones es simétrica en torno al valor real, entonces el estimador restringido en un intervalo simétrico alrededor del valor verdadero también será insesgado... pero esto es casi trivialmente evidente o intuitivo, ¿no?
Se vuelve un poco más interesante, si nos damos cuenta de que el necesario y suficiente condición (dado un intervalo simétrico) a) no requiere una distribución simétrica , sólo hay una masa de probabilidad igual "en las colas" (y esto a su vez no implica que la distribución de la masa en cada cola tenga que ser idéntica) y b) permite que dentro del intervalo, la densidad del estimador puede tener cualquier forma no simétrica que sea consistente con el mantenimiento de la insesgadez - todavía hará que el estimador restringido sea insesgado.
APLICACIÓN: El caso de la OP
Nuestro estimador es ˆθ=θ+w,w∼N(0,1) y así ˆθ∼N(θ,1) . Entonces, utilizando (4) mientras escribía a,b en términos de θ,δ tenemos, para el intervalo de delimitación [0,1] ,
E[ˆθc]=θ−θP(ˆθ≤0)+(1−θ)P(ˆθ>1)
La distribución es simétrica en torno a θ . Transformación ( Φ() es la CDF normalizada)
E[ˆθc]=θ−θP(ˆθ−θ≤−θ)+(1−θ)P(ˆθ−θ>1−θ)
=θ−θΦ(−θ)+(1−θ)[1−Φ(1−θ)]
Se puede comprobar que los términos adicionales se anulan sólo si θ=1/2 es decir, sólo si el intervalo de delimitación es también simétrico en torno a θ .