Hay varias formas de aplicar el bootstrap. Los dos enfoques más básicos son los denominados bootstrap "no paramétrico" y "paramétrico". El segundo supone que el modelo que se utiliza es (esencialmente) correcto.
Centrémonos en la primera. Vamos a suponer que tienes una muestra aleatoria $X_1, X_2, \ldots, X_n$ distribuido según la función de distribución $F$ . (Suponer lo contrario requiere modificar los planteamientos.) Dejemos que $\hat{F}_n(x) = n^{-1} \sum_{i=1}^n \mathbf{1}(X_i \leq x)$ sea la función de distribución acumulativa empírica. Gran parte de la motivación del bootstrap proviene de un par de hechos.
La desigualdad Dvoretzky-Kiefer-Wolfowitz
$$ \renewcommand{\Pr}{\mathbb{P}} \Pr\big( \textstyle\sup_{x \in \mathbb{R}} \,|\hat{F}_n(x) - F(x)| > \varepsilon \big) \leq 2 e^{-2n \varepsilon^2} \> . $$
Lo que esto muestra es que la función de distribución empírica converge uniformemente a la verdadera función de distribución exponencialmente rápido en la probabilidad. De hecho, esta desigualdad, junto con el lema de Borel-Cantelli, muestra inmediatamente que $\sup_{x \in \mathbb{R}} \,|\hat{F}_n(x) - F(x)| \to 0$ casi seguro.
No hay condiciones adicionales en la forma de $F$ para garantizar esta convergencia.
Heurísticamente, entonces, si estamos interesados en alguna función $T(F)$ de la función de distribución que es suave , entonces esperamos que $T(\hat{F}_n)$ para estar cerca de $T(F)$ .
(Puntualmente) Imparcialidad de $\hat{F}_n(x)$
Por simple linealidad de la expectativa y la definición de $\hat{F}_n(x)$ para cada $x \in \mathbb{R}$ ,
$$ \newcommand{\e}{\mathbb{E}} \e_F \hat{F}_n(x) = F(x) \>. $$
Supongamos que estamos interesados en la media $\mu = T(F)$ . Entonces la insesgadez de la medida empírica se extiende a la insesgadez de los funcionales lineales de la medida empírica. Entonces, $$ \e_F T(\hat{F}_n) = \e_F \bar{X}_n = \mu = T(F) \> . $$
Así que $T(\hat{F}_n)$ es correcta en promedio y como $\hat{F_n}$ se acerca rápidamente $F$ entonces (heurísticamente), $T(\hat{F}_n)$ se acerca rápidamente $T(F)$ .
Para construir un intervalo de confianza ( que es, esencialmente, de lo que se trata el bootstrap ), podemos utilizar el teorema del límite central, la consistencia de los cuantiles empíricos y el método delta como herramientas para pasar de simples funcionales lineales a estadísticas de interés más complicadas.
Las buenas referencias son
- B. Efron, Métodos Bootstrap: Otra mirada al jackknife , Ann. Stat. , vol. 7, nº 1, 1-26.
- B. Efron y R. Tibshirani, Introducción a Bootstrap Chapman-Hall, 1994.
- G. A. Young y R. L. Smith, Fundamentos de la inferencia estadística , Cambridge University Press, 2005, Capítulo 11 .
- A. W. van der Vaart, Estadísticas asintóticas , Cambridge University Press, 1998, Capítulo 23 .
- P. Bickel y D. Freedman, Algunas teorías asintóticas para el bootstrap . Ann. Stat. , vol. 9, nº 6 (1981), 1196-1217.