Muy interesante pregunta, aquí está mi opinión sobre ella.
Es todo acerca de la codificación de la información, a continuación, gire a la Bayesiana de la manivela. Parece demasiado bueno para ser verdad, pero estos son más difíciles de lo que parecen.
Voy a empezar con la pregunta
¿Qué información se utiliza cuando nos preocupamos por comparaciones múltiples?
No puedo pensar de algunos - la primera es "datos de dragado" prueba "de todo" hasta que obtener suficiente pasa/falla (yo creo que casi todos los stats persona entrenada estarían expuestos a este problema). Usted también tiene menos siniestras, pero esencialmente el mismo "tengo muchas pruebas para ejecutar - seguramente todos no puede ser correcta".
Después de pensar en esto, una cosa que noto es que no tienden a escuchar mucho acerca de la hipótesis específica o comparaciones específicas. Se trata de la "colección" - esto desencadena mi forma de pensar hacia la intercambiabilidad - la hipótesis que se comparan son "similares" entre sí de alguna manera. Y ¿cómo se puede codificar la intercambiabilidad en el análisis bayesiano? - hyper-los priores, los modelos mixtos, efectos aleatorios, etc!!!
Pero la intercambiabilidad sólo tienen parte del camino. Es todo lo intercambiables? O ¿tiene un "dispersión" - como sólo unos pocos no-cero de los coeficientes de regresión con un gran grupo de candidatos. Los modelos mixtos y aleatorias distribuidas normalmente efectos no funcionan aquí. Que "atascado" en entre aplastando el ruido y dejando señales intactos (por ejemplo, en su ejemplo, mantener locationB y locationC "verdadero" de los parámetros de igualdad, y establecer locationA "true" parámetro arbitrariamente grandes o pequeñas, y ver el estándar lineal modelo mixto fallar.). Pero puede ser fijo - por ejemplo, con "la espiga y la losa" de los priores o "herradura" de los priores.
Así que se trata más acerca de qué tipo de hipótesis de las que están hablando y conseguir todas las características conocidas se refleja en la previa y probabilidad. Andrew Gelman enfoque es sólo una manera de manejar una amplia clase de comparaciones múltiples de forma implícita. Como los mínimos cuadrados y distribuciones normales tienden a funcionar bien en la mayoría de los casos (pero no todos).
En términos de cómo se hace esto, se podría pensar en una persona razonamiento de la siguiente manera
- el grupo a y el grupo B pueden tener la misma media
- Me miró a los datos, y los medios son "cerrar"
- Por lo tanto, para obtener una mejor estimación para ambos, me deben agrupar los datos, como mi pensamiento inicial fue que tienen la misma media.
- Si no son el mismo, los datos proporcionan evidencia de que están "cerca", así que la agrupación "un poco" no me dolió demasiado mal si mi hipótesis era incorrecta (a la manera de todos los modelos están equivocados, algunos son útiles)
Tenga en cuenta que todo lo anterior depende de la premisa inicial "que podría ser el mismo". Tomar lo que fuera, y no hay ninguna justificación para la agrupación. Usted probablemente puede ver también un "normalish poco la distribución de la" manera de pensar acerca de las pruebas. "El cero es más probable", "si no es cero, entonces cercano a cero, es más probable siguiente", "los valores extremos son poco probable". Considerar esta alternativa:
- el grupo a y el grupo B, significa que puede ser igual, pero también pueden ser drásticamente diferentes
El argumento acerca de la agrupación de "un poco" es una muy mala idea. Es mejor elegir el total de la agrupación o cero de la agrupación. Mucho más como una de Cauchy, la espiga y la losa, el tipo de situación (porciones de masa en torno a cero, y un montón de masa para los valores extremos)
El conjunto de comparaciones múltiples no deben ser tratadas, debido a que el enfoque Bayesiano es la incorporación de la información que nos lleva a la preocupación en la previa y/o la probabilidad. En un sentido es más un recordatorio para pensar correctamente acerca de qué información está disponible para usted, y asegurarse de que ha incluido en el análisis.