Presentaré las condiciones bajo las cuales un estimador insesgado sigue siendo insesgado, incluso después de ser acotado. Pero no estoy seguro de que supongan algo interesante o útil.
Que un estimador $\hat \theta$ del parámetro desconocido $\theta$ de una distribución continua, y $E(\hat \theta) =\theta$ .
Supongamos que, por alguna razón, en un muestreo repetido queremos que el estimador produzca estimaciones que oscilen en $[\delta_l,\delta_u]$ . Suponemos que $\theta \in [\delta_l,\delta_u]$ y así podemos escribir cuando sea conveniente el intervalo como $[\theta-a,\theta+b]$ con $\{a,b\}$ números positivos pero, por supuesto, desconocidos.
Entonces el estimador restringido es
$$\hat \theta_c = \left\{\begin{matrix} \delta_l & \hat \theta <\delta_l\\\hat \theta &\delta_l \leq \hat \theta \leq \delta_u \\\delta_u & \delta_u < \hat \theta \end{matrix} \right\}$$
y su valor esperado es
$$\begin{align} E(\hat \theta_c) &= \delta_l\cdot P[\hat \theta \leq \delta_l] \\&+ E(\hat \theta \mid \delta_l \leq\hat \theta \leq\delta_u )\cdot P[\delta_l \leq\hat \theta \leq \delta_u] \\ &+\delta_u\cdot P[\hat \theta > \delta_u]\end{align}$$
Defina ahora las funciones indicadoras
$$I_l = I(\hat \theta \leq \delta_l),\;\; I_m = I(\delta_l\leq \hat \theta \leq \delta_l),\;\; I_u = I(\hat \theta > \delta_u)$$
y nota que
$$I_l + I_u = 1- I_m \tag{1}$$
utilizando estas funciones indicadoras, y las integrales, podemos escribir el valor esperado del estimador restringido como ( $f(\hat \theta)$ es la función de densidad de $\hat \theta$ ),
$$E(\hat \theta_c) = \int_{-\infty}^{\infty}\delta_lf(\hat \theta)I_ld\hat \theta + \int_{-\infty}^{\infty}\hat \theta f(\hat \theta)I_md\hat \theta + \int_{-\infty}^{\infty} \delta_uf(\hat \theta)I_ud\hat \theta$$
$$=\int_{-\infty}^{\infty}f(\hat \theta)\Big[\delta_lI_l + \hat \theta I_m + \delta_uI_u\Big]d\hat \theta$$
$$=E\Big[\delta_lI_l + \hat \theta I_m + \delta_uI_u\Big] \tag{2}$$
Descomponiendo el límite superior y el inferior, tenemos
$$E(\hat \theta_c) = E\Big[(\theta-a)I_l + \hat \theta I_m + (\theta+b)I_u\Big]$$
$$=E\Big[\theta\cdot(I_l+I_u) + \hat \theta I_m\Big] -aE(I_l)+bE(I_u) $$
y utilizando $(1)$ ,
$$ = E\Big[\theta\cdot(1-I_m) + \hat \theta I_m\Big] -aE(I_l)+bE(I_u) $$
$$\Rightarrow E(\hat \theta_c) = \theta +E\big[(\hat \theta -\theta)I_m\big]-aE(I_l)+bE(I_u) \tag {3}$$
Ahora bien, como $E(\hat \theta) = \theta$ tenemos
$$E\big[(\hat \theta -\theta)I_m\big] = E\big(\hat \theta I_m\big) - E(\hat \theta)E(I_m)$$
Pero
$$E\big(\hat \theta I_m\big) = E\big(\hat \theta I_m\mid I_m=1\big)E(I_m) = E\big(\hat \theta \big)E(I_m)$$
Por lo tanto, $E\big[(\hat \theta -\theta)I_m\big] =0$ y así
$$\begin{align} E(\hat \theta_c) &= \theta -aE(I_l)+bE(I_u) \\ &= \theta -aP(\hat \theta \leq \delta_l)+bP(\hat \theta > \delta_u)\end{align}\tag {4}$$
o bien
$$ E(\hat \theta_c) = \theta -(\theta-\delta_l)P(\hat \theta \leq \delta_l)+(\delta_u-\theta)P(\hat \theta > \delta_u)\tag {4a}$$
Por lo tanto, desde $(4)$ vemos que para que el estimador restringido también sea insesgado, debemos tener
$$aP(\hat \theta \leq \delta_l) = bP(\hat \theta > \delta_u) \tag {5}$$
¿Cuál es el problema de la condición $(5)$ ? Se trata de los números desconocidos $\{a,b\}$ por lo que en la práctica no podremos determinar realmente un intervalo para acotar el estimador y mantenerlo insesgado.
Pero digamos que se trata de un experimento de simulación controlado, en el que queremos investigar otras propiedades de los estimadores, dada la insesgadez. Entonces podemos "neutralizar" $a$ y $b$ al establecer $a=b$ , que esencialmente crea un intervalo simétrico alrededor del valor de $\theta$ ... En este caso, para lograr la imparcialidad, debemos tener más $P(\hat \theta \leq \delta_l) = P(\hat \theta > \delta_u)$ es decir, debemos tener que la masa de probabilidad del sin restricciones estimador es igual a la izquierda y a la derecha del (simétrico alrededor de $\theta$ ) intervalo...
...y así aprendemos que (como condiciones suficientes), si la distribución del estimador sin restricciones es simétrica en torno al valor real, entonces el estimador restringido en un intervalo simétrico alrededor del valor verdadero también será insesgado... pero esto es casi trivialmente evidente o intuitivo, ¿no?
Se vuelve un poco más interesante, si nos damos cuenta de que el necesario y suficiente condición (dado un intervalo simétrico) a) no requiere una distribución simétrica , sólo hay una masa de probabilidad igual "en las colas" (y esto a su vez no implica que la distribución de la masa en cada cola tenga que ser idéntica) y b) permite que dentro del intervalo, la densidad del estimador puede tener cualquier forma no simétrica que sea consistente con el mantenimiento de la insesgadez - todavía hará que el estimador restringido sea insesgado.
APLICACIÓN: El caso de la OP
Nuestro estimador es $\hat \theta = \theta + w,\;\; w \sim N(0,1)$ y así $\hat \theta \sim N(\theta,1)$ . Entonces, utilizando $(4)$ mientras escribía $a,b$ en términos de $\theta, \delta$ tenemos, para el intervalo de delimitación $[0,1]$ ,
$$E[\hat \theta_c] = \theta -\theta P(\hat \theta \leq 0) +(1-\theta)P(\hat \theta > 1)$$
La distribución es simétrica en torno a $\theta$ . Transformación ( $\Phi()$ es la CDF normalizada)
$$E[\hat \theta_c] = \theta -\theta P(\hat \theta-\theta \leq -\theta) +(1-\theta)P(\hat \theta -\theta > 1-\theta)$$
$$=\theta -\theta \Phi(-\theta) +(1-\theta)[1-\Phi(1-\theta)]$$
Se puede comprobar que los términos adicionales se anulan sólo si $\theta =1/2$ es decir, sólo si el intervalo de delimitación es también simétrico en torno a $\theta$ .