16 votos

¿Por qué los datos deben ser cambiadas bajo la hipótesis nula de inicio de pruebas de hipótesis?

La aplicación directa de bootstrap métodos para la prueba de hipótesis es estimar el intervalo de confianza de la prueba estadística de $\hat{\theta}$ por calcular repetidamente en las muestras bootstrap (Vamos a la estadística $\hat{\theta}$ muestras de bootstrap se llama $\hat{\theta^*}$). Rechazamos $H_0$ si la hipótesis de parámetro $\theta_0$ (que generalmente es igual a 0) se encuentra fuera del intervalo de confianza de $\hat{\theta^*}$.

He leído que este método carece de un poco de poder. En el artículo de Hall P. y Wilson S. R. "Dos Directrices para el Bootstrap de Pruebas de Hipótesis" (1992) es escrito como la primera directriz, que uno debe volver a muestrear $\hat{\theta^*} - \hat{\theta}$, no el $\hat{\theta^*} - \theta_0$. Y esta es la parte que no entiendo.

No es que el $\hat{\theta^*} - \hat{\theta}$ sólo mide el sesgo del estimador $\hat{\theta^*}$? Para los estimadores insesgados de los intervalos de confianza de esta expresión debe ser siempre menor que $\hat{\theta^*} - \theta_0$, pero no veo, lo que tiene que ver con las pruebas para $\hat{\theta}=\theta_0$? No hay ningún lugar puedo ver que poner la información acerca de la $\theta_0$.


Para aquellos de ustedes, que no tienen acceso a este artículo, esta es una cita en el párrafo pertinente que viene inmediatamente después de la tesis:

Para apreciar por qué esto es importante observar que la prueba se involucrar a rechazar $H_0$ si $\left| \hat{\theta} - \theta_0\right|$ es "demasiado grande". Si $\theta_0$ es un largo camino a partir de cierto valor de $\theta$ (es decir, si $H_0$ es manifiestamente el error), entonces la diferencia $\left|\hat{\theta} - \theta_0 \right|$ nunca mirar muy mucho demasiado grande en comparación con el bootstrap no paramétrico de la distribución de $\left| \hat{\theta} - \theta_0\right|$. Una más significativa la comparación es con el distribución de $\left| \hat{\theta^*} - \hat{\theta}\right|$. En de hecho, si el verdadero valor de $\theta$$\theta_1$, entonces el poder de el arranque de la prueba aumenta a 1 $\left|\theta_1 - \theta_0\right|$ aumenta, siempre que la prueba se basa en el remuestreo $\left| \hat{\theta^*} - \hat{\theta}\right|$ , pero el poder disminuye en la mayoría de los el nivel de significación (como $\left|\theta_1 - \theta_0\right|$ aumenta) si la prueba se basa en el remuestreo $\left|\hat{\theta} - \theta_0\right|$

10voto

StasK Puntos 19497

Este es el bootstrap analogía principio. La (desconocida) que subyacen a la verdadera distribución de $F$ producido un ejemplo a la mano $x_1, \ldots, x_n$ con cdf $F_n$, lo que a su vez produjo la estadística $\hat\theta=T(F_n)$ para algunos funcional $T(\cdot)$. Su idea de utilizar el bootstrap para hacer declaraciones acerca de la distribución de muestreo basado en una distribución conocida $\tilde F$, donde intenta utilizan el mismo protocolo de muestreo (que es exactamente posible sólo porque yo.yo.d. de datos; los datos que dependen siempre conducen a limitaciones en la precisión con la que uno puede reproducir el proceso de muestreo), y aplicar los mismos funcional $T(\cdot)$. He demostrado en otro post (creo que lo es) una casa diagrama. Así que el bootstrap análogo de la (muestreo + sistemático) desviación $\hat\theta - \theta_0$, la cantidad de su interés central, es la desviación de la secuencia de arranque replicar $\hat\theta^*$ de lo que se sabe para ser verdad para la distribución de $\tilde F$, el proceso de muestreo aplicado y el funcional $T(\cdot)$, es decir, la medida de tendencia central es $T(\tilde F)$. Si usted utiliza el estándar de la paramétrica de bootstrap con la sustitución de los datos originales, su $\tilde F=F_n$, por lo que su medida de la tendencia central tiene que ser de $T(F_n) \equiv \hat \theta$ basa en los datos originales.

Además de la traducción, hay más problemas con el arranque de las pruebas que a veces son difíciles de superar. La distribución de un estadístico de prueba bajo la nula puede ser drásticamente diferente de la distribución de la estadística de prueba bajo la alternativa (por ejemplo, en las pruebas en el límite del espacio de parámetros que fallar con el bootstrap). Las pruebas simples que se aprende en las clases de pregrado como $t$-prueba son invariantes bajo cambio, pero pensando, "Caramba, yo solo cambian todo" falla una vez para pasar al siguiente nivel de complejidad conceptual, el asintótica $\chi^2$ pruebas. Piense en esto: usted es la prueba de que $\mu=0$, y su observó $\bar x=0.78$. Luego, cuando la construcción de un $\chi^2$ prueba de $(\bar x-\mu)^2/(s^2/n) \equiv \bar x^2/(s^2/n)$ con el bootstrap analógico $\bar x_*^2/(s_*^2/n)$, luego esta prueba tiene un built-in no-centralidad de $n \bar x^2/s^2$ desde el principio, en lugar de ser una prueba central como sería de esperar. Para hacer la prueba de bootstrap central, usted realmente tiene que restar el presupuesto original.

El $\chi^2$ pruebas son inevitables en multivariante contextos, que van desde Pearson $\chi^2$ para las tablas de contingencia para Bollen-Stine bootstrap de la prueba estadística en los modelos de ecuaciones estructurales. El concepto de desplazamiento de la distribución es extremadamente difícil de definir bien en estas situaciones... aunque en el caso de las pruebas en el multivariante de la covarianza de las matrices, esto es posible mediante una adecuada rotación.

4voto

Eric L Puntos 86

OK, ya lo tengo. Gracias, StasK, para una buena respuesta. Me la guardo aceptado por los demás para aprender, pero en mi caso particular, me faltaba un hecho muy sencillo:

El procedimiento de bootstrap de acuerdo a Hall&Wilson directrices para la simple una muestra media de la prueba es este (en R inspirado en pseudo código):

1function(data, $\theta_0$ ) {
2 $\hat{\theta} \leftarrow $ t.test(data, mu = $\theta_0$ )$statistic
3 count $\leftarrow 0$
4for(i in 1:1000){
5 bdata $\leftarrow$ sample(data)
6 $\hat{\theta^*} \leftarrow $ t.test(bdata, mu = $\hat{\theta}$ )$statistic
7 if ( $\hat{\theta^*} \le \hat{\theta} $ ) count++
8 }
9 count/1000
10 }

La parte que me perdí fue que el $\theta_0$ fue "utilizado" en la línea 2 (donde hemos establecido la referencia $\hat{\theta}$).

Es interesante notar que, en la línea 2 y 6 podemos con la misma facilidad de uso p.value en lugar de statistic. En ese caso se debe cambiar también el $\le$ a $\ge$ en la línea 7.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X