30 votos

¿Por qué don ' t Bayesian métodos requieren múltiples correcciones de pruebas?

Andrew Gelman escribió un extenso artículo sobre por qué Bayesiano AB pruebas no requieren múltiples hipótesis de corrección: ¿por Qué Nosotros (por lo general) no Tiene que Preocuparse Acerca De Las Comparaciones Múltiples, 2012.

No acabo de entender: ¿por qué no Bayesiano métodos requieren de múltiples correcciones de pruebas?

A ~ Distribution1 + Common Distribution
B ~ Distribution2 + Common Distribution
C ~ Distribution3 + Common Distribution
Common Distribution ~ Normal

Mi entendimiento es que el enfoque Bayesiano se muestra arriba de cuentas para el común subyacente a la distribución por todas las hipótesis (a diferencia de en un frecuentista de la corrección de Bonferroni). Es mi razonamiento correcto?

15voto

dan90266 Puntos 609

Una extraña manera de responder a la pregunta es para nota de que el método Bayesiano proporciona ninguna manera de hacer esto porque Bayesiano métodos son consistentes con las reglas aceptadas de la evidencia y frecuentista métodos son a menudo en desacuerdo con ellos. Ejemplos:

  • Con frecuentista estadísticas, comparando el tratamiento de la a a la B debe sancionar para la comparación de tratamientos C y D, de la familia de sabios error de tipo I consideraciones; con Bayesiano de la comparación de B se encuentra en sus propios.
  • Secuencial frecuentista de pruebas, las sanciones son generalmente necesarios para múltiples se ve en los datos. En un grupo secuencial de configuración, una de las primeras comparación de a vs B debe ser penalizado para una posterior comparación de la que aún no ha sido hecha, y una posterior comparación debe ser penalizado por una anterior comparación, incluso si la anterior comparación no alterar el curso del estudio.

El problema se deriva de la frecuentista de la inversión del flujo del tiempo y de la información, lo que frequentists tiene que considerar lo que podría haber ocurrido , en lugar de lo que sucedió. En contraste, Bayesiano evaluaciones de anclaje de todos los de la evaluación a la previa distribución, que calibra la evidencia. Por ejemplo, el estado de la distribución para el A-B diferencia calibra todas las futuras evaluaciones de a-B y no tiene que considerar C-D.

Con ensayos secuenciales, hay una gran confusión acerca de cómo ajustar las estimaciones puntuales cuando un experimento se terminó antes de tiempo el uso de frecuentista de la inferencia. En el Bayesiano mundo, el estado de la "tira" en cualquier punto de las estimaciones, y la actualización de la distribución posterior se aplica a la inferencia en cualquier momento y no requiere de muestras complejas cuestiones de espacio.

6voto

Björn Puntos 457

Este tipo de modelo jerárquico se reduce a las estimaciones y reduce el número de falsas afirmaciones en una medida razonable para un pequeño a moderado número de hipótesis. Garantiza algún tipo específico de la tasa de error? No.

Esta sugerencia particular por Gelman (que reconoce que el problema con mirar muchas cosas diferentes y, a continuación, demasiado fácilmente, erróneamente, concluyendo que ves algo que para algunos de ellos - de hecho, uno de sus mascotas temas en su blog) es distinto de una alternativa extrema punto de vista que sostiene que Bayesiano métodos no necesitan para dar cuenta de la multiplicidad, porque todo lo que importa son sus probabilidades (y antes).

6voto

patfla Puntos 1

Muy interesante pregunta, aquí está mi opinión sobre ella.

Es todo acerca de la codificación de la información, a continuación, gire a la Bayesiana de la manivela. Parece demasiado bueno para ser verdad, pero estos son más difíciles de lo que parecen.

Voy a empezar con la pregunta

¿Qué información se utiliza cuando nos preocupamos por comparaciones múltiples?

No puedo pensar de algunos - la primera es "datos de dragado" prueba "de todo" hasta que obtener suficiente pasa/falla (yo creo que casi todos los stats persona entrenada estarían expuestos a este problema). Usted también tiene menos siniestras, pero esencialmente el mismo "tengo muchas pruebas para ejecutar - seguramente todos no puede ser correcta".

Después de pensar en esto, una cosa que noto es que no tienden a escuchar mucho acerca de la hipótesis específica o comparaciones específicas. Se trata de la "colección" - esto desencadena mi forma de pensar hacia la intercambiabilidad - la hipótesis que se comparan son "similares" entre sí de alguna manera. Y ¿cómo se puede codificar la intercambiabilidad en el análisis bayesiano? - hyper-los priores, los modelos mixtos, efectos aleatorios, etc!!!

Pero la intercambiabilidad sólo tienen parte del camino. Es todo lo intercambiables? O ¿tiene un "dispersión" - como sólo unos pocos no-cero de los coeficientes de regresión con un gran grupo de candidatos. Los modelos mixtos y aleatorias distribuidas normalmente efectos no funcionan aquí. Que "atascado" en entre aplastando el ruido y dejando señales intactos (por ejemplo, en su ejemplo, mantener locationB y locationC "verdadero" de los parámetros de igualdad, y establecer locationA "true" parámetro arbitrariamente grandes o pequeñas, y ver el estándar lineal modelo mixto fallar.). Pero puede ser fijo - por ejemplo, con "la espiga y la losa" de los priores o "herradura" de los priores.

Así que se trata más acerca de qué tipo de hipótesis de las que están hablando y conseguir todas las características conocidas se refleja en la previa y probabilidad. Andrew Gelman enfoque es sólo una manera de manejar una amplia clase de comparaciones múltiples de forma implícita. Como los mínimos cuadrados y distribuciones normales tienden a funcionar bien en la mayoría de los casos (pero no todos).

En términos de cómo se hace esto, se podría pensar en una persona razonamiento de la siguiente manera - el grupo a y el grupo B pueden tener la misma media - Me miró a los datos, y los medios son "cerrar" - Por lo tanto, para obtener una mejor estimación para ambos, me deben agrupar los datos, como mi pensamiento inicial fue que tienen la misma media. - Si no son el mismo, los datos proporcionan evidencia de que están "cerca", así que la agrupación "un poco" no me dolió demasiado mal si mi hipótesis era incorrecta (a la manera de todos los modelos están equivocados, algunos son útiles)

Tenga en cuenta que todo lo anterior depende de la premisa inicial "que podría ser el mismo". Tomar lo que fuera, y no hay ninguna justificación para la agrupación. Usted probablemente puede ver también un "normalish poco la distribución de la" manera de pensar acerca de las pruebas. "El cero es más probable", "si no es cero, entonces cercano a cero, es más probable siguiente", "los valores extremos son poco probable". Considerar esta alternativa:

  • el grupo a y el grupo B, significa que puede ser igual, pero también pueden ser drásticamente diferentes

El argumento acerca de la agrupación de "un poco" es una muy mala idea. Es mejor elegir el total de la agrupación o cero de la agrupación. Mucho más como una de Cauchy, la espiga y la losa, el tipo de situación (porciones de masa en torno a cero, y un montón de masa para los valores extremos)

El conjunto de comparaciones múltiples no deben ser tratadas, debido a que el enfoque Bayesiano es la incorporación de la información que nos lleva a la preocupación en la previa y/o la probabilidad. En un sentido es más un recordatorio para pensar correctamente acerca de qué información está disponible para usted, y asegurarse de que ha incluido en el análisis.

5voto

peuhp Puntos 788

En primer lugar, tal y como yo entiendo el modelo que se presenta creo que es un poco diferente a Gelman propuesta, que más se parece a:

A ~ Distribution(locationA)
B ~ Distribution(locationB)
C ~ Distribution(locationC)

locationA ~ Normal(commonLocation)
locationB ~ Normal(commonLocation)
locationC ~ Normal(commonLocation)

commonLocation ~ hyperPrior

En la práctica, mediante la adición de este commonLocation parámetro, las inferencias sobre los parámetros de la 3 distribuciones (aquí localidades 1, 2 y 3) no son independientes los unos de los otros. Por otra parte, commonLocation tiende a encogerse expectational los valores de los parámetros hacia una central (generalmente estimado). En cierto sentido, funciona como una regularización sobre todas las inferencias que haciendo de la necesidad de la corrección de múltiples corrección no es necesario (como en la práctica realizamos una sola multivariante estimación de la contabilidad de la interacción entre cada uno de ellos mediante el uso del modelo).

Como se ha señalado por la otra respuesta, esta corrección no ofrecen ningún tipo de control sobre el error de tipo I, pero en la mayoría de los casos, el método Bayesiano no ofrece ningún tipo de control de este tipo, incluso en la única inferencia de la escala y de la corrección para comparaciones múltiples se debe pensar de manera diferente en el Bayesiano de configuración.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X