9 votos

¿Necesitan los factores de Bayes una corrección por comparación múltiple?

Como el título: ¿Necesitan los factores de Bayes una corrección de comparación múltiple?

Para más contexto, estoy calculando muchas pruebas de razón de verosimilitud y estoy pensando en cómo manejar la corrección de comparaciones múltiples. Pensé que los factores de Bayes podrían presentar una solución - si estoy presentando los resultados en la escala de pruebas del factor de Bayes entonces creo que la corrección no debería ser necesaria?

Calcular los factores de Bayes completos para cada prueba con MCMC sería difícil (pero no imposible, aunque no estoy seguro de cómo elegir los factores a priori realmente), pero Wasserman (2000) parece que el BIC puede utilizarse para aproximar el factor de Bayes. Así que parece que para sortear mis dificultades con las comparaciones múltiples puedo simplemente añadir el $\frac{d_f}{2}\log n$ a mi ratio de log-verosimilitud, exponenciarlo y llamarlo factor de Bayes que puedo presentar sin corrección.

Parece demasiado bueno para ser verdad, ¿qué me estoy perdiendo?

Mi opinión es que empuja el paso de la inferencia al lector en lugar de presentar la evidencia del factor de Bayes (que es, por supuesto, exactamente lo que quiero hacer, filosóficamente no veo la necesidad de asignar a cada punto de una imagen un valor p preciso) - pero es probable que esto sea aceptable para los revisores? (La aplicación es en neuroimagen)

4voto

Cyan Puntos 1965

Lo que se te escapa es que muy raramente tiene sentido utilizar una prior para la que todos los parámetros son independientes. Eso podría tener sentido si los parámetros fueran tan variados y lógicamente desconectados como, por ejemplo, el conjunto {alguna constante física, la media de bateo de algún jugador de béisbol, el nivel de expresión de algún gen de la levadura}.

La mayoría de los análisis consideran conjuntos de parámetros que se modelan mejor como intercambiable como, por ejemplo, el conjunto de todos los promedios de bateo de los jugadores actuales o el conjunto de todos los niveles de expresión de los genes de la levadura. Para la estimación, esto conduce a enfoques como este para las pruebas, conduce a enfoques como este .

4voto

Peter Westfall Puntos 11

No necesariamente para los factores de Bayes. Pero los factores de Bayes requieren la conversión a probabilidades posteriores para una inferencia adecuada, y las probabilidades posteriores definitivamente pueden requerir una especie de ajuste de multiplicidad al estilo de Bonferroni. Esta es la explicación:

Si las hipótesis son independientes a priori , entonces la probabilidad de que todos los nulos sean simultáneamente verdadero disminuye a cero muy rápidamente a medida que aumenta el número de hipótesis probadas. Pero puede haber dudas científicas sobre si existe algún efecto: Por ejemplo, en un estudio de neuroimagen puede haber dudas sobre si la asociación estudiada tiene alguna base neuronal. (No obstante, es probable que las estadísticas más extremas sugieran la existencia de una asociación, simplemente porque cuando se observa un gran número de estadísticas, los valores extremos serán probablemente bastante atípicos).

En casos como éste, en los que hay dudas científicas sobre si existe alguna asociación, hay que fijar la probabilidad a priori de la hipótesis nula global en algún valor no infinitesimal para modelar correctamente esa duda. Al hacerlo, sus probabilidades a priori sobre los componentes nulos se incrementan necesariamente a partir de los niveles comúnmente utilizados (como 0,5), dependiendo del número de hipótesis probadas, y dependiendo de su evaluación del grado de dependencia a priori. Este cambio en las probabilidades a priori de los componentes nulos provoca un cambio (o ajuste) en las probabilidades posteriores de los componentes nulos. Este ajuste es similar al ajuste habitual de Bonferroni cuando los componentes se suponen independientes a priori y es menos extremo que el ajuste de Bonferroni cuando se supone que los componentes son dependientes.

Esta cuestión se analiza en la siguiente bibliografía. La última referencia discute cómo hacer el análisis cuando se asume la dependencia previa.

Jeffreys, H. Teoría de la probabilidad. Oxford press.

Westfall, P.H., Johnson, W.O. y Utts, J.M.(1997). A Bayesian Perspective on the Bonferroni Adjustment, Biometrika 84, 419-427.

Gönen, M., Westfall, P.H. y Johnson, W.O. (2003). Bayesian multiple testing for two-sample multivariate endpoints, Biometrics 59, 76-82.

3voto

JohnRos Puntos 3211

En el contexto de la inferencia frecuentista, la probabilidad posterior, o probabilidad posterior del nulo (también conocida como fdr local), no es más que un estadístico de prueba. Sin duda, puede llevarle a muchas inferencias erróneas debidas únicamente al azar.

Si quieres alguna garantía frecuencial sobre la cantidad de errores que podrías estar cometiendo, las probabilidades posteriores deben ser introducidas en algún esquema de control de multiplicidad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X