$1/\sum{S_i}$ es una función convexa en $\sum{S_i}$. Entonces, por la desigualdad de Jensen
$$E\left(\frac{1}{\sum{S_i}}\right)>\left(\frac{1}{E[\sum{S_i}]}\right) =\frac{1}{n\cdot P(S_i=1)}$$
la última igualdad si asumimos que cada encuestado tiene la misma probabilidad de responder o no. Un estimador de esta probabilidad es la proporción de la muestra $\hat P(S_i=1) =n_r/n$, por lo que tenemos
$$est.\left(\frac{1}{E[\sum{S_i}]}\right) =\frac 1{n_r}$$
Así que "entre" $E\left(\frac{1}{\sum{S_i}}\right)$ $1/n_r$ existe tanto la distancia debido a la no linealidad, así como la estimación de error. La estimación de error puede ir de cualquier manera, por lo que no podemos concluir sobre la relación final entre los dos.
Sin embargo, apelando a asymptotics, $\hat P(S_i=1) \xrightarrow{p} P(S_i=1)$$E\left(\frac{1}{\sum{S_i}}\right)\rightarrow \left(\frac{1}{E[\sum{S_i}]}\right)$, por lo que para los "grandes muestras" aceptamos $1/n_r$ como una aproximación a $E\left(\frac{1}{\sum{S_i}}\right)$.
Pero para el caso general, la situación cambia. Escribir $w_i \equiv S_i/\sum S_i$
y por lo $\sum w_i =1$, y tenemos
$$\hat \mu = \sum w_iY_i$$
Si asumimos que
a) $S_i$ $Y_i$ son independientes(es decir, que si alguien responde o no no depende de su propio valor de $Y$ -y esto no es siempre el caso, por ejemplo, pensar en una encuesta que pregunta algo "sensible", decir "¿cuál es su ingreso mensual"? Las personas con altos ingresos puede optar por no responder en lugar de grabar una verdadera o falsa declaración), y teniendo en cuenta que
b) todos los miembros de la población son idénticamente distribuidas como variables aleatorias, y tienen en común la media de $E(Y_i) =\mu, \; \forall i$, luego
$$E(\hat \mu) = \sum E(w_i)E(Y_i) = \mu\cdot\sum E(w_i) = \mu\cdot E\left(\sum w_i\right) = \mu\cdot E(1) = \mu$$
por lo que el estimador es, después de todo, imparcial. Esto depende de manera crucial en la suposición de independencia entre el $S_i$ $Y_i$ porque implica que la sub-muestra de los que respondieron sigue siendo una muestra aleatoria de un "representante" de la muestra de la población, por lo que su media muestral es todavía un estimador imparcial.
ANEXO
Con respecto a la expansión en series de Taylor para la función $1/Z$, esto es, alrededor de un centro de $z_0$,
$$E(1/Z) = \frac 1{z_0} - \frac 1{z_0^2}[E(Z) - z_0] + \frac 1{z_0^3}E[Z - z_0]^2 + E(R_2)$$
$\sum S_i$ es una variable aleatoria binomial. Tan centrado en $z_0=E(\sum S_i) = np_s$ hemos
$$E\left(\frac{1}{\sum{S_i}}\right) = \frac 1{np_s}-\frac 1{n^2p_s^2}(E(S_i)-np_s)+\frac 1{n^3p_s^3}\text{Var}(S_i) +E(R_2)$$
$$=\frac 1{np_s} -0+\frac {np_s(1-p_s)}{n^3p_s^3} + E(R_2) = \frac 1{np_s} + O(n^{-2})$$
Desde $\hat p_s = n_r/n$ llegamos a
$$\hat E\left(\frac{1}{\sum{S_i}}\right) \approx \frac 1{n_r}$$