Sé que esto es de un cómic famoso por aprovechando ciertas tendencias analíticas pero en realidad parece bastante razonable después de unos minutos de mirar. ¿Puede alguien describirme lo que es este " teorema de Bayes modificado ¿"está haciendo"?
Respuestas
¿Demasiados anuncios?Pues distribuyendo el $P(H)$ obtenemos $$ P(H|X) = \frac{P(X|H)P(H)}{P(X)} P(C) + P(H) [1 - P(C)], $$ que podemos interpretar como la Ley de la Probabilidad Total aplicada al evento $C =$ "estás utilizando correctamente la estadística bayesiana". Así que si estás usando la estadística bayesiana correctamente, entonces recuperas la ley de Bayes (la fracción de la izquierda de arriba) y si no lo haces, entonces ignoras los datos y sólo usas tu previa en $H$ .
Supongo que se trata de una réplica a la crítica de que, en principio, los bayesianos pueden ajustar la previa para apoyar cualquier conclusión que deseen, mientras que los bayesianos argumentarían que no es así como funciona realmente la estadística bayesiana.
(Y sí, lo hiciste con éxito nerd-snipe a mí. Pero no soy ni matemático ni físico, así que no estoy seguro de cuántos puntos valgo).
Lo creas o no, este tipo de modelo aparece de vez en cuando en modelos estadísticos muy serios, especialmente cuando se trata de la fusión de datos, es decir, cuando se trata de combinar la inferencia de múltiples sensores tratando de hacer inferencia sobre un solo evento.
Si un sensor funciona mal, puede sesgar en gran medida la inferencia realizada al intentar combinar las señales de múltiples fuentes. Se puede hacer un modelo más robusto frente a este problema incluyendo una pequeña probabilidad de que el sensor sólo transmita valores aleatorios, independientes del evento real de interés. Esto tiene como resultado que si 90 sensores indican débilmente $A$ es cierto, pero 1 sensor indica fuertemente $B$ es cierto, aún debemos concluir que $A$ es verdadera (es decir, la probabilidad posterior de que este único sensor haya fallado se vuelve muy alta cuando nos damos cuenta de que contradice a todos los demás sensores). Si la distribución de fallos es independiente del parámetro sobre el que queremos hacer inferencia, entonces si la probabilidad posterior de que sea un fallo es alta, las medidas de ese sensor tienen muy poco efecto en la distribución posterior para el parámetro de interés; de hecho, la independencia si la probabilidad posterior de fallo es 1.
¿Es éste un modelo general que debería considerarse cuando se trata de la inferencia, es decir, deberíamos sustituir el teorema de Bayes por el teorema de Bayes modificado cuando hacemos estadística bayesiana? No. La razón es que "utilizar correctamente la estadística bayesiana" no es realmente algo binario (o si lo es, siempre es falso). Cualquier análisis tendrá grados de suposiciones incorrectas. Para que sus conclusiones sean completamente independiente de los datos (lo cual está implícito en la fórmula), hay que cometer errores gravísimos. Si "usar la estadística bayesiana incorrectamente" a cualquier nivel Si su análisis fuera completamente independiente de la verdad, el uso de las estadísticas no tendría ningún valor. Todos los modelos son erróneos, pero algunos son útiles y todo eso.