11 votos

Cómo interpretar Bayesiano (posterior predictivo) p-valor de 0.5?

En el siguiente documento se encuentran aquí y de referencia a continuación, el autor sugiere que "si el modelo es válido o cerca de la verdad, la posterior predicción p-valor es casi seguro que estar muy cerca de 0.5" . Este se encuentra en el comienzo de la Sección 6 en el papel.

Estoy tratando de interpretar lo que se quiere decir cuando dice 'modelo es verdadero'. Mis preguntas son:

i) Estadísticamente lo que es un "modelo verdadero", como dijo en la cita anterior?

ii) ¿Qué valor de 0.5 significa, en palabras sencillas?

Gelman, A. (2013). Dos ejemplos simples para la comprensión posterior de los valores de p cuyas distribuciones están lejos de ser uniforme. Revista electrónica de Estadísticas, 7, 2595-2602.

8voto

Taylor Puntos 692

El modelo es válido si usted está asumiendo que la manera en que los datos son generados. Esta no es la instalación donde se considere la posibilidad de múltiples modelos de $M_1, M_2, \ldots$ discreto de las distribuciones de probabilidad que describe la incertidumbre del modelo.

Un p-valor de .5 significa que el estadístico de prueba $T(y^{\text{rep}})$ (que será calculada sobre datos simulados) será a la derecha alrededor de la mediana de la parte posterior de la distribución predictiva. En términos generales, a una prueba estadística de $T(y^{\text{rep}})$, calculado con datos simulados van a estar bastante cerca de la antigua formación de datos de la estadística de prueba de $T(y)$ se han calculado a partir de "real" de datos.

La parte posterior de la distribución predictiva es \begin{align*} p(y^{\text{rep}} \mid y) &= \int p(y^{\text{rep}},\theta \mid y) d\theta\\ &= \int p(y^{\text{rep}}\mid \theta, y)p(\theta \mid y) d\theta\\ &= \int \underbrace{p(y^{\text{rep}} \mid \theta)}_{\text{model}}\underbrace{p(\theta \mid y)}_{\text{posterior}} d\theta \\ &= E_{\theta \mid y}\left[p(y^{\text{rep}} \mid \theta) \right]. \end{align*}

Luego de tomar esta distribución e integrar la región donde $T(y^{\text{rep}})$ es mayor de lo que algunos calculan aleatoria estadística del conjunto de datos $T(y)$.

$$ P(T(y^{\text{rep}}) > T(y) \mid y) = \int_{\{T(y^{\text{rep}}) : T(y^{\text{rep}}) > T(y) \}} p(y^{\text{rep}} \mid y) dy^{\text{rep}}. $$

En la práctica, si el cómputo de la integral anterior es demasiado difícil, esto significa que la simulación de muchos a $y^{\text{rep}}$s, calcular el $T(y^{\text{rep}})$ para cada uno de ellos, y luego ver qué por ciento están por encima de su calculado $T(y)$. Para obtener más información, vea este hilo: ¿Qué son posteriores predictivo cheques y lo que los hace útiles?

Porque estás suponiendo que no hay incertidumbre del modelo, $p(y^{\text{rep}} \mid y)$ es una integral sobre el espacio de parámetros; no el espacio de parámetros Y el modelo de espacio.

7voto

Jay Querido Puntos 589

Recomiendo leer el subyacente de los papeles que en este documento se deriva de la terminología no parecen haberse convertido en estándar en el campo. El documento original es por Rubin, pero Gelman es la escritura de Meng.

Meng, X. (1994). Posterior Predictivo p-Valores. Los Anales de Estadísticas, 22(3), 1142-1160.

En cuanto a tus preguntas:

Estoy tratando de interpretar lo que significa que se entiende cuando dice 'modelo es verdadero'. Mis preguntas son:

i) Estadísticamente, lo que es un "modelo verdadero", como dijo en la cita anterior?

ii) ¿Qué valor de 0.5 significa, en palabras sencillas?

Así que hay algún desafortunado el uso del lenguaje como los valores de p son un Frecuentista idea Bayesiano y métodos no tienen p-valores. Sin embargo, en el contexto de los artículos que comienzan con Rubin, podemos discutir la idea de una Bayesiana p-valor en un sentido estrecho.

En cuanto a la pregunta uno, Bayesiano de modelos no falsear una hipótesis nula. De hecho, excepto cuando algún método tiene la intención de imitar Frecuentista métodos, como en este papel, el fraseo "hipótesis nula" rara vez se utiliza. En cambio, los métodos Bayesianos son generativos métodos y generalmente están construidos a partir de un conjunto diferente de los axiomas.

La manera más fácil de acercarse a su pregunta es de Cox axiomas.

Cox, R. T. (1961). El Álgebra de Inferencia Probable. Baltimore, MD: Johns Hopkins University Press.

Cox primer axioma es que plausibilities de una proposición a es un número real que varía con la información relativa a la proposición. Aviso la palabra probabilidad no se utiliza, ya que también nos permite pensar en términos de probabilidades o de otros mecanismos. Esto varía muy fuertemente de la hipótesis nula métodos. Para ver un ejemplo, considere la posibilidad de binario hipótesis de $H_1,H_2$, que en Frecuencial de los métodos señalados $H_0,H_A$. ¿Cuál es la diferencia?

$H_0$ está condicionado a ser verdadero y el valor p de las pruebas de la probabilidad de observar la muestra, dada la nula es verdadera. No se comprueba si el valor null es realmente cierto o falso y $H_A$ no tiene forma de probabilidad declaración adjunta. Por lo tanto, si $p<.05$, esto no implica que $\Pr(H_A)>.95$.

En el marco Bayesiano, cada proposición tiene una probabilidad asignada a ella, así que si $H_1:\mu\le{k}$$H_2:\mu>k$, entonces se sigue que si $\Pr(H_1)=.7327$$\Pr(H_2)=.2673$.

El verdadero modelo es el modelo que genera los datos en la naturaleza. Esto varía según el método Frecuencial que sólo depende de la distribución de muestreo de la estadística, en general.

En cuanto a la pregunta dos, Gelman es responder a Meng. Él estaba señalando que en una amplia variedad de circunstancias, si la hipótesis nula es verdadera, entonces el $\Pr(y^{rep}|y)$ se agrupan en torno a .5 si usted promedio a lo largo del espacio muestral. Él proporciona un caso donde esto es útil, y donde es un problema. Sin embargo, la sugerencia de por qué viene a partir de los ejemplos, especialmente el primero.

La primera ha sido construida de modo que hay grandes antes de la incertidumbre y el uso de esta casi informativo antes de que se propaga a través de la distribución predictiva de tal manera que, casi independientemente de su ejemplo, Rubin y Ming posterior predictivo de los valores de p será de cerca del 50%. En este caso, significaría que se diría que hay un 50% de probabilidad nula es verdadera, la cual es altamente indeseable ya que sería bastante cerca del 100% o en el caso de la falsedad, de 0%.

La idea de Bayesiana posterior de los valores de p es la observación de que, puesto que ahora está en el espacio muestral como al azar, en lugar de en el espacio de parámetros aleatorios, el áspero interpretación de un Bayesiana de la probabilidad posterior es muy cerca de la Frecuentista p-valor. Es problemático debido a que el modelo no se considera un parámetro, en sí mismo, y no tiene ninguna probabilidad anterior como sería el caso en una prueba de muchos modelos diferentes. El modelo, $H_A$ frente al $H_B$ es implícita.

Este artículo es una advertencia de algo que, en un sentido, es obvio. Imagínese que tiene cincuenta millones de puntos de datos y no hay ambigüedad en cuanto a la ubicación del parámetro, entonces usted podría sorprenderse si la resultante de distribución predictiva fue un mal estimador sobre el espacio muestral. Ahora considere un modelo donde los resultados son ambiguos y el anterior fue en el mejor débilmente informativo, a continuación, incluso si el modelo es cierto, sería sorprendente para obtener un resultado claro de la parte posterior de la distribución predictiva.

Se proporciona un ejemplo en el que los datos provienen de una población que tiene una distribución normal estándar. La muestra tendría que ser de 28.000 para obtener un rechazo del modelo. En un estándar de la población normal, que nunca va a suceder.

El modelo se basa en la propagación de la incertidumbre y de si es o no Rubin/Meng la idea genera un útil construir cuando más se necesita, cuando la información es pobre, pequeño, débil o ambigua frente a las muestras que son increíblemente claro. Como un ejemplo de la herramienta de prueba, muestreo propiedades son deseables en algunas circunstancias, pero deseables en los demás.

En este caso, lo que Gelman está diciendo es que, independientemente de la verdadera probabilidad de que el modelo, el fuera-de-la muestra de validación de calificación proporcionado por el Bayesiano posterior predictivo p-valor será de cerca del 50% cuando la nula es verdadera cuando los datos no señalan con claridad a una solución.

Esto ha llevado a la crítica de la idea de que sin calibrar con las verdaderas probabilidades. Ver

Bayarri, M. J. y Berger, J. (2000). Los valores de P para los compuestos de los modelos nulos. Revista de la Asociación Americana de Estadística 95, 1127-1142.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X