A menudo se afirma que el bootstrapping puede proporcionar una estimación del sesgo de un estimador.
Si $\hat t$ es la estimación de alguna estadística, y $\tilde t_i$ son las réplicas bootstrap (con $i\in\{1,\cdots,N\}$ ), entonces la estimación bootstrap del sesgo es \begin{equation} \mathrm{bias}_t \approx \frac{1}{N}\sum_i \tilde{t}_i-\hat t \end{equation} que parece extremadamente simple y poderoso, hasta el punto de ser inquietante.
No me entra en la cabeza cómo es posible esto sin tener ya un estimador insesgado de la estadística. Por ejemplo, si mi estimador simplemente devuelve una constante que es independiente de las observaciones, la estimación anterior del sesgo es claramente inválida.
Aunque este ejemplo es patológico, no veo cuáles son los supuestos razonables sobre el estimador y las distribuciones que garantizarán que la estimación bootstrap sea razonable.
Intenté leer las referencias formales, pero no soy estadístico ni matemático, así que no se aclaró nada.
¿Puede alguien proporcionar un resumen de alto nivel sobre cuándo se puede esperar que la estimación sea válida? Si se conocen buenas referencias sobre el tema, también sería estupendo.
Editar:
La suavidad del estimador se cita a menudo como un requisito para que el bootstrap funcione. ¿Podría ser que también se requiera algún tipo de invertibilidad local de la transformación? El mapa constante claramente no satisface eso.