4 votos

Recrear la tradicional hipótesis nula de la prueba con métodos Bayesianos

Estoy tratando de recrear (en R) un frecuentista de pruebas de hipótesis en Bayesiano de, mediante el cálculo de los factores de Bayes de la nula (H0) y la alternativa (H1) de los modelos.

El modelo es simplemente una regresión lineal simple que intenta detectar una tendencia mundial temp. los datos de 1995 a 2009 (aquí). Por lo tanto, H0 es ninguna tendencia (es decir, pendiente = 0), o del mismo modo, la H0 modelo es un modelo lineal con solo el intercepto.

Así que he calculado el lm() de ambos modelos para llegar a la negativa de registro de probabilidad de los valores que son significativamente diferentes. El valor de p para el H1 lm() el modelo es 0.0877.

También he calculado esta en un Bayesiano manera mediante el uso de MCMCpack, y me sale negativa de registro de probabilidad de los valores que son super duper súper diferentes. Registro de probabilidad de los valores de 13.7 y 4.3 son unos 10000 veces la diferencia en sus cocientes de probabilidad (donde >100 se considera "decisivo").

Los medios y sds de las estimaciones son muy similares, así que ¿por qué estoy recibiendo a diferentes valores de probabilidad? (en particular para el Bayesiano H0 modelo) me siento como que hay un vacío en mi entendimiento sobre marginales de las probabilidades, pero no puedo encontrar el problema.

Gracias

library(MCMCpack)

## data: http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt

head(hadcru, 2)
##  Year      1      2      3      4      5      6      7      8      9     10
## 1 1850 -0.691 -0.357 -0.816 -0.586 -0.385 -0.311 -0.237 -0.340 -0.510 -0.504
## 2 1851 -0.345 -0.394 -0.503 -0.480 -0.391 -0.264 -0.279 -0.175 -0.211 -0.123
##       11     12    Avg
## 1 -0.259 -0.318 -0.443
## 2 -0.141 -0.151 -0.288

hadcru.lm <- lm(Avg ~ 1 + Year, data = subset(hadcru, (Year <= 2009 & Year >= 1995)))
hadcru.lm.zero <- lm(Avg ~ 1, data = subset(hadcru, (Year <= 2009 & Year >= 1995)))

hadcru.mcmc <- MCMCregress(Avg ~ 1 + Year, data = subset(hadcru, (Year <= 2009 & Year >= 1995)), thin = 100, mcmc = 100000, b0 = c(-20, 0), B0 = c(.00001, .00001), marginal = "Laplace")
hadcru.mcmc.zero <- MCMCregress(Avg ~ 1, data = subset(hadcru, (Year <= 2009 & Year >= 1995)), thin = 100, mcmc = 100000, b0 = c(0), B0 = c(.00001), marginal = "Laplace")

-logLik(hadcru.lm)
## 'log Lik.' -14.55338 (df=3)
-logLik(hadcru.lm.zero)
## 'log Lik.' -12.80723 (df=2)

attr(hadcru.mcmc, "logmarglike")
##           [,1]
## [1,] -13.65188
attr(hadcru.mcmc.zero, "logmarglike")
##           [,1]
## [1,] -4.310564

alt text

13voto

Binarytales Puntos 1145

Cuando estás computación factores de Bayes, los priores de la materia. La influencia de los priores puede persistir incluso si usted tiene una gran cantidad de datos. Cuando usted está haciendo posterior a la inferencia, el efecto de la anterior desaparece a medida que recoger más datos, pero no es así con los factores de Bayes.

Además, obtendrá una convergencia más rápida si su nula y alternativa de los priores han desunido apoyo. Los detalles aquí.

2voto

John Richardson Puntos 1197

Estoy nota seguro de que me siga la I-código como sólo he utilizado R una o dos veces, pero a mí parece como si usted está comparando los marginales de la probabilidad de que un modelo con sólo una intercepción y sin pendiente (hadcru.mcmc.cero) y los marginales de la probabilidad de que un modelo con un pendiente y una intercepción (hadcru.mcmc). Sin embargo, mientras que hadcru.mcmc.cero parece ser el modelo correcto para H0, hadcru.mcmc no me parece para representar correctamente H1 como no hay nada tan lejos como puedo ver que limita la pendiente es positiva. Es algo que en la previa de la pendiente que hace que sea estrictamente positivo (no sé lo suficiente acerca de la MCMC R a saber)? Si no, que puede ser donde el problema radica como la marginal de probabilidad tendría un componente que representa la probabilidad de los datos para todos los de entonces egative valores de la decantación permitidas en virtud de la anterior (y 0), así como la positiva.

Es discutible si la H0 para esta pregunta debe ser que la pendiente es exactamente cero, nadie iba a creer que para ser plausible a-priori. Tal vez una prueba utilizando el factor de Bayes para un modelo donde la pendiente es estrictamente positivo (H1) en contra de un modelo que sea cero o negativo (H0).

HTH (y no solo estoy confundiendo las cosas)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X