12 votos

¿Qué es una "Unidad de Información Previa"?

He estado leyendo Wagenmakers (2007) Una solución práctica para el problema generalizado de los valores p. Estoy intrigado por la conversión de BIC valores dentro de los factores de Bayes y las probabilidades. Sin embargo, hasta ahora no tengo una buena comprensión de qué es exactamente una unidad de información previa . Agradecería una explicación con imágenes, o el código R para generar imágenes, de este particular antes.

6voto

guest Puntos 1851

La unidad de información previa es un dependiente de los datos anteriores, (normalmente multivariante Normal), con una media en la MLE, y la precisión igual a la información proporcionada por una observación. Ver, por ejemplo, esta tecnología informe, o este documento para más detalles. La idea de la UIP es dar una antes de que 'permite que los datos hablan por sí solos; en la mayoría de los casos, la incorporación de antes de que le dice que como mucho como una observación centrado en los demás datos se 'apunta' tendrá poco impacto en el posterior análisis. Uno de sus usos principales es en el que muestra que el uso de BIC corresponde, en muestras grandes, el uso de factores de Bayes, con UIPs en sus parámetros.

Probablemente también vale la pena señalar que muchos statsticians (incluyendo Bayesians) se siente incómodo con el uso de Factores de Bayes y/o BIC, para muchos de los problemas aplicados.

3voto

Alexander Ly Puntos 11

La unidad de información previa se basa en los siguientes interpretación de conjugacy:

Configurar

  • Normal de los datos: $X^{n}=(X_{1}, \ldots, X_{n})$ $X_{i} \sim \mathcal{N}( \mu, \sigma^{2})$ $\mu$ desconocido y $\sigma^2$ conocido. Los datos pueden ser lo suficientemente resumida por la media de la muestra, que antes de que cualquier dato que se ve es distribuido de acuerdo a $\bar{X} \sim \mathcal{N}(\mu, \tfrac{\sigma^{2}}{n} )$.
  • Normal antes de $\mu$: $ \mu \sim \mathcal{N} (a, \sigma^{2})$ con la misma varianza en los datos.
  • Normal posterior para $\mu$: $ \mu \sim \mathcal{N} (M, v)$ donde$ M=\tfrac{1}{n+1}(a + n \bar{x})$$v= \tfrac{\sigma^2}{n+1}$.

Interpretación

Por lo tanto, después de observar los datos de $\bar{X}=\bar{x}$, tenemos un posterior para $\mu$ que se concentra en una combinación convexa de la observación de $\bar{x}$ y lo que se postula antes de que los datos fueron observados, es decir, $a$. Además, la varianza de la parte posterior es el dado por $\tfrac{\sigma^{2}}{n+1}$, por lo tanto, como si no tuviéramos $n+1$ observaciones en lugar de $n$, en comparación con la distribución de muestreo de la media muestral. Tenga en cuenta, que una distribución de muestreo no es el mismo como una distribución posterior. Sin embargo, la posterior tipo de parece que, permitiendo que los datos hablan por sí mismos. Por lo tanto, con la información de la unidad antes de que uno consigue un trabajo posterior que se concentra mayoritariamente en los datos, $\bar{x}$, y el reducido hacia la información previa, $a$ como una pena.

Kass y Wasserman, además, mostró que el modelo de selección de $M_{0}:\mu=a$ frente al $M_{1}: \mu \in \mathbf{R}$ con la previa dada anteriormente se puede aproxima bien con el criterio de Schwartz (básicamente, BIC/2) al $n$ es grande.

Algunas observaciones:

  • El hecho de BIC se aproxima a un factor de Bayes basado en una unidad de información previa, no implica que se deba utilizar una unidad de información previa a la construcción de un factor de Bayes. Jeffreys (1961) opción predeterminada es utilizar un Cauchy antes en el tamaño del efecto en su lugar, consulte también Ly et al. (en prensa) para una explicación en Jeffreys elección.
  • Kass y Wasserman mostró que el BIC dividido por una constante (que se refiere el Cauchy para una distribución normal) puede usarse como una aproximación del factor de Bayes (esta vez se basa en una de Cauchy antes en lugar de uno normal).

Referencias

  • Jeffreys, H. (1961). Teoría de la Probabilidad. Oxford University Press, Oxford, reino unido, 3 edición.
  • Kass, R. E. y Wasserman, L. (1995). "Una Referencia Bayesiano de Prueba para Anidada Hipótesis y Su Relación con el Criterio de Schwarz," Diario de la Asociación Americana de Estadística, 90, 928-934
  • Ly, A., Verhagen, A. J., & Wagenmakers, E. J. (en prensa). Harold Jeffreys por defecto del factor de Bayes pruebas de hipótesis: Explicación, la extensión y aplicación de la psicología. Revista de Psicología Matemática.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X