Si la cantidad de interés, generalmente de un funcional de una distribución, es liso y sus datos son yo.yo.d., usted está por lo general en bastante segura territorio. Por supuesto, hay otras circunstancias cuando el bootstrap.
Lo que significa para el bootstrap "fallar"
En términos generales, el propósito de la secuencia de arranque es construir un aproximado de la distribución de muestreo de la estadística de interés. No se trata de real de la estimación del parámetro. Así, si el estadístico de interés (en algunas reescalado y centrado) es $\newcommand{\Xhat}{\hat{X}_n}\Xhat$ $\Xhat \to X_\infty$ en la distribución, nos gustaría que nuestros bootstrap distribución de la convergencia a la distribución de $X_\infty$. Si no tenemos esto, entonces no podemos confiar en las inferencias.
La canónica ejemplo de cuando el bootstrap puede fallar, incluso en un yo.yo.d. marco es cuando se intenta aproximar la distribución de muestreo de una extrema fin de estadística. A continuación una breve discusión.
Orden máximo de la estadística de una muestra aleatoria de un $\;\mathcal{U}[0,\theta]$ distribución
Deje $X_1, X_2, \ldots$ ser una secuencia de yo.yo.d. uniforme de variables aleatorias en $[0,\theta]$. Deje $\newcommand{\Xmax}{X_{(n)}} \Xmax = \max_{1\leq k \leq n} X_k$. La distribución de $\Xmax$ es
$$
\renewcommand{\Pr}{\mathbb{P}}\Pr\Xmax \leq x) = (x/\theta)^n \>.
$$
(Tenga en cuenta que por muy simple argumento, de hecho, esto también muestra que el $\Xmax \to \theta$ en la probabilidad, e incluso, casi seguramente, si las variables aleatorias son definidos en el mismo espacio.)
Un elemental cálculo de los rendimientos de
$$
\Pr( n(\theta \Xmax) \leq x ) = 1 - \Big(1 - \frac{x}{\theta n}\Big)^n \a 1 - e^{-x/\theta} \>,
$$
o, en otras palabras, $n(\theta - \Xmax)$ converge en distribución a una exponencial de la variable aleatoria con una media de $\theta$.
Ahora, formamos un (ingenuo) bootstrap estimación de la distribución de $n(\theta - \Xmax)$ por remuestreo $X_1, \ldots, X_n$ con reemplazo para conseguir $X_1^\star,\ldots,X_n^\star$ y el uso de la distribución de $n(\Xmax - \Xmax^\star)$ condicional en $X_1,\ldots,X_n$.
Pero, se observa que la $\Xmax^\star = \Xmax$ con una probabilidad de $1 - (1-1/n)^n \to 1 - e^{-1}$, y para el arranque de distribución tiene un punto de masa en cero incluso asintóticamente a pesar del hecho de que la actual limitación de la distribución es continua.
Más explícitamente, aunque la verdadera limitación de la distribución es exponencial con media de $\theta$, la limitación de bootstrap distribución de los lugares de un punto de masa en el cero de tamaño $1−e^{-1} \approx 0.632$ independiente del valor real de la $\theta$. Tomando $\theta$ suficientemente grande, podemos hacer que la probabilidad de que la verdadera limitación de la distribución arbitraria pequeño para cualquier intervalo fijo $[0,\varepsilon)$, sin embargo, el arranque será (todavía!) informe de que hay al menos probabilidad 0.632 en este intervalo! A partir de esto se debe tener claro que el bootstrap puede comportarse de forma arbitraria mal en esta configuración.
En resumen, el proceso de arranque falla (desgraciadamente) en este caso. Las cosas tienden a ir mal cuando se trata con los parámetros en el borde del espacio de parámetros.
Un ejemplo de una muestra de variables aleatorias normales
Hay otros ejemplos similares de la insuficiencia de la secuencia de arranque en sorprendentemente simple circunstancias.
Considere una muestra de $X_1, X_2, \ldots$ $\mathcal{N}(\mu,1)$ donde el espacio de parámetros para $\mu$ está restringido a $[0,\infty)$. El MLE en este caso es $\newcommand{\Xbar}{\bar{X}}\Xhat = \max(\bar{X},0)$. Una vez más, utilizamos la estimación bootstrap $\Xhat^\star = \max(\Xbar^\star, 0)$. De nuevo, se puede demostrar que la distribución de $\sqrt{n}(\Xhat^\star - \Xhat)$ (condicionada a la observada de la muestra) no converge a la misma limitación de la distribución como $\sqrt{n}(\Xhat - \mu)$.
Matrices intercambiables
Quizás uno de los ejemplos más espectaculares es para un intercambiables matriz. Deje $\newcommand{\bm}[1]{\mathbf{#1}}\bm{Y} = (Y_{ij})$ ser una matriz de variables aleatorias tales que, para cada par de matrices de permutación $\bm{P}$$\bm{Q}$, las matrices de $\bm{Y}$ $\bm{P} \bm{Y} \bm{Q}$ tienen la misma distribución conjunta. Es decir, permuting filas y columnas de $\bm{Y}$ mantiene la distribución invariante. (Se puede pensar de un modelo de efectos aleatorios con una observación por celda como un ejemplo, a pesar de que el modelo es mucho más general.)
Supongamos que queremos estimar un intervalo de confianza para la media de $\mu = \mathbb{E}(Y_{ij}) = \mathbb{E}(Y_{11})$ (debido a la intercambiabilidad hipótesis descrita por encima de los medios de todas las células deben ser de la misma).
McCullagh (2000) consideran dos diferentes natural (es decir, ingenuo) los modos de arranque de una matriz. Ninguno de ellos obtener la varianza asintótica de la media de la muestra correcta. También considera que algunos de los ejemplos de una manera intercambiable matriz y la regresión lineal.
Referencias
Por desgracia, el asunto es trivial, por lo que ninguno de estos son especialmente fáciles de leer.
P. Bickel y D. Freedman, Algunos teoría asintótica para el bootstrap. Ann. Stat., vol. 9, no. 6 (1981), 1196-1217.
D. W. K. Andrews, la Inconsistencia de la secuencia de arranque cuando un parámetro está en el límite del espacio de parámetros, Econometrica, vol. 68, no. 2 (2000), 399-405.
P. McCullagh, de Remuestreo y matrices intercambiables, Bernoulli, vol. 6, no. 2 (2000), 285-301.
E. L. Lehmann y J. P. Romano, la Prueba Estadística de Hipótesis, 3er. ed., Springer (2005). [Capítulo 15: General Grandes Métodos De Muestreo]