89 votos

¿Cuáles son los ejemplos donde un "ingenuo " bootstrap" falla?

Supongamos que tengo un conjunto de datos de ejemplo de un desconocido o complejos de distribución, y quiero realizar algunas inferencias sobre una estadística $T$ de los datos. Mi defecto inclinación es generar un montón de bootstrap muestras con reemplazo, y calcular la estadística de $T$ en cada bootstrap ejemplo para crear una distribución estimada para $T$.

¿Cuáles son los ejemplos donde esto es una mala idea?

Por ejemplo, un caso en el que ingenuamente la realización de este bootstrap fallaría se si estoy tratando de utilizar el arranque en datos de series de tiempo (por ejemplo, para probar si tengo significativo de autocorrelación). El ingenuo bootstrap descritas anteriormente (la generación de la $i$th datapoint de la enésima bootstrap serie de muestras mediante el muestreo con reemplazo de mi serie original) sería (creo) ser desaconsejado, ya que ignora la estructura en mi tiempo original de la serie, y así tener más elegante de bootstrap de técnicas como el bloque de arranque.

Para decirlo de otra manera, ¿qué hay para el bootstrap además de "muestreo con reemplazo"?

70voto

giulio Puntos 166

Si la cantidad de interés, generalmente de un funcional de una distribución, es liso y sus datos son yo.yo.d., usted está por lo general en bastante segura territorio. Por supuesto, hay otras circunstancias cuando el bootstrap.

Lo que significa para el bootstrap "fallar"

En términos generales, el propósito de la secuencia de arranque es construir un aproximado de la distribución de muestreo de la estadística de interés. No se trata de real de la estimación del parámetro. Así, si el estadístico de interés (en algunas reescalado y centrado) es $\newcommand{\Xhat}{\hat{X}_n}\Xhat$ $\Xhat \to X_\infty$ en la distribución, nos gustaría que nuestros bootstrap distribución de la convergencia a la distribución de $X_\infty$. Si no tenemos esto, entonces no podemos confiar en las inferencias.

La canónica ejemplo de cuando el bootstrap puede fallar, incluso en un yo.yo.d. marco es cuando se intenta aproximar la distribución de muestreo de una extrema fin de estadística. A continuación una breve discusión.

Orden máximo de la estadística de una muestra aleatoria de un $\;\mathcal{U}[0,\theta]$ distribución

Deje $X_1, X_2, \ldots$ ser una secuencia de yo.yo.d. uniforme de variables aleatorias en $[0,\theta]$. Deje $\newcommand{\Xmax}{X_{(n)}} \Xmax = \max_{1\leq k \leq n} X_k$. La distribución de $\Xmax$ es $$ \renewcommand{\Pr}{\mathbb{P}}\Pr\Xmax \leq x) = (x/\theta)^n \>. $$ (Tenga en cuenta que por muy simple argumento, de hecho, esto también muestra que el $\Xmax \to \theta$ en la probabilidad, e incluso, casi seguramente, si las variables aleatorias son definidos en el mismo espacio.)

Un elemental cálculo de los rendimientos de $$ \Pr( n(\theta \Xmax) \leq x ) = 1 - \Big(1 - \frac{x}{\theta n}\Big)^n \a 1 - e^{-x/\theta} \>, $$ o, en otras palabras, $n(\theta - \Xmax)$ converge en distribución a una exponencial de la variable aleatoria con una media de $\theta$.

Ahora, formamos un (ingenuo) bootstrap estimación de la distribución de $n(\theta - \Xmax)$ por remuestreo $X_1, \ldots, X_n$ con reemplazo para conseguir $X_1^\star,\ldots,X_n^\star$ y el uso de la distribución de $n(\Xmax - \Xmax^\star)$ condicional en $X_1,\ldots,X_n$.

Pero, se observa que la $\Xmax^\star = \Xmax$ con una probabilidad de $1 - (1-1/n)^n \to 1 - e^{-1}$, y para el arranque de distribución tiene un punto de masa en cero incluso asintóticamente a pesar del hecho de que la actual limitación de la distribución es continua.

Más explícitamente, aunque la verdadera limitación de la distribución es exponencial con media de $\theta$, la limitación de bootstrap distribución de los lugares de un punto de masa en el cero de tamaño $1−e^{-1} \approx 0.632$ independiente del valor real de la $\theta$. Tomando $\theta$ suficientemente grande, podemos hacer que la probabilidad de que la verdadera limitación de la distribución arbitraria pequeño para cualquier intervalo fijo $[0,\varepsilon)$, sin embargo, el arranque será (todavía!) informe de que hay al menos probabilidad 0.632 en este intervalo! A partir de esto se debe tener claro que el bootstrap puede comportarse de forma arbitraria mal en esta configuración.

En resumen, el proceso de arranque falla (desgraciadamente) en este caso. Las cosas tienden a ir mal cuando se trata con los parámetros en el borde del espacio de parámetros.

Un ejemplo de una muestra de variables aleatorias normales

Hay otros ejemplos similares de la insuficiencia de la secuencia de arranque en sorprendentemente simple circunstancias.

Considere una muestra de $X_1, X_2, \ldots$ $\mathcal{N}(\mu,1)$ donde el espacio de parámetros para $\mu$ está restringido a $[0,\infty)$. El MLE en este caso es $\newcommand{\Xbar}{\bar{X}}\Xhat = \max(\bar{X},0)$. Una vez más, utilizamos la estimación bootstrap $\Xhat^\star = \max(\Xbar^\star, 0)$. De nuevo, se puede demostrar que la distribución de $\sqrt{n}(\Xhat^\star - \Xhat)$ (condicionada a la observada de la muestra) no converge a la misma limitación de la distribución como $\sqrt{n}(\Xhat - \mu)$.

Matrices intercambiables

Quizás uno de los ejemplos más espectaculares es para un intercambiables matriz. Deje $\newcommand{\bm}[1]{\mathbf{#1}}\bm{Y} = (Y_{ij})$ ser una matriz de variables aleatorias tales que, para cada par de matrices de permutación $\bm{P}$$\bm{Q}$, las matrices de $\bm{Y}$ $\bm{P} \bm{Y} \bm{Q}$ tienen la misma distribución conjunta. Es decir, permuting filas y columnas de $\bm{Y}$ mantiene la distribución invariante. (Se puede pensar de un modelo de efectos aleatorios con una observación por celda como un ejemplo, a pesar de que el modelo es mucho más general.)

Supongamos que queremos estimar un intervalo de confianza para la media de $\mu = \mathbb{E}(Y_{ij}) = \mathbb{E}(Y_{11})$ (debido a la intercambiabilidad hipótesis descrita por encima de los medios de todas las células deben ser de la misma).

McCullagh (2000) consideran dos diferentes natural (es decir, ingenuo) los modos de arranque de una matriz. Ninguno de ellos obtener la varianza asintótica de la media de la muestra correcta. También considera que algunos de los ejemplos de una manera intercambiable matriz y la regresión lineal.

Referencias

Por desgracia, el asunto es trivial, por lo que ninguno de estos son especialmente fáciles de leer.

P. Bickel y D. Freedman, Algunos teoría asintótica para el bootstrap. Ann. Stat., vol. 9, no. 6 (1981), 1196-1217.

D. W. K. Andrews, la Inconsistencia de la secuencia de arranque cuando un parámetro está en el límite del espacio de parámetros, Econometrica, vol. 68, no. 2 (2000), 399-405.

P. McCullagh, de Remuestreo y matrices intercambiables, Bernoulli, vol. 6, no. 2 (2000), 285-301.

E. L. Lehmann y J. P. Romano, la Prueba Estadística de Hipótesis, 3er. ed., Springer (2005). [Capítulo 15: General Grandes Métodos De Muestreo]

10voto

Sadeghd Puntos 63

El siguiente libro tiene un capítulo (Cap.9) dedicado a "Cuando Arranque Falla, Junto con los Recursos de los Fracasos":

M. R. Chernick, Bootstrap métodos: Una guía para los profesionales y los investigadores, 2ª ed. Hoboken, N. J.: Wiley-Interscience, 2008.

Los temas son:

  1. Muy Pequeño Tamaño de la Muestra
  2. Las distribuciones con Infinitos Momentos
  3. La Estimación De Los Valores Extremos
  4. Encuesta De Muestreo
  5. Datos de Secuencias que Son M-Dependiente
  6. Inestable De Los Procesos Autorregresivos
  7. De Largo Alcance De La Dependencia

1voto

patfla Puntos 1

El ingenuo bootstrap depende del tamaño de la muestra grande, por lo que la CDF empírica de los datos son una buena aproximación a la "verdad" del CDF. Esto asegura que el muestreo de la CDF empírica es muy parecida a la de muestreo de la "verdadera" CDF. El caso extremo es cuando usted tiene que sólo muestra los datos de un punto de arranque consigue nada aquí. Se convertirá en más y más inútil a medida que se acerca este caso de degeneración.

Bootstrapping, ingenuamente, no va a fallar necesariamente en los tiempos de análisis de series (aunque puede ser ineficaz): si modelo de la serie usando funciones de base de tiempo continuo (como polinomios de legendre) para un componente de tendencia, y el seno y el coseno funciones de tiempo continuo para los componentes cíclicos (más ruido normal término de error). A continuación, sólo tienes que poner lo que jamás veces le sucede que se han muestreado en la probabilidad de la función. Ningún desastre para el arranque de aquí.

Cualquier auto-correlación, o modelo ARIMA tiene una representación en este formato anterior - este modelo es sólo más fácil de usar, y creo que para entender e interpretar (fácil de entender los ciclos, en el seno y el coseno funciones, difícil de entender coeficientes de un modelo ARIMA). Por ejemplo, la auto-correlación de la función es la inversa de la transformada de Fourier del espectro de potencia de una serie de tiempo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X