Resulta que un gran $n$, por encima de la estimador puede ser escrita en la forma $\mathbb E_X [(h(X) - b) g(X)]$ donde $h(x) := f(x) / \int f(y) d\mu_X(y)$ , y directos de computación, ha varianza $\mathbb E_X [h(X)g(X)] - b\mathbb E_X[g(X)^2]$ cual es, por supuesto, minimizado por tomar
$$b = b^* := \frac{\operatorname{cov}[h(X),g(X)]}{\operatorname{var}[g(X)]}.
$$
Esta es una variación de reducción de la técnica conocida como "control de variables".
Queda para la estimación de $\operatorname{cov}[h(X),g(X)]$ $\operatorname{var} [g(X)]$ a partir de muestras finitas $x_1,\ldots,x_n$, y hemos terminado.