Se me ocurrió un estándar Bayesiana ejemplo, como a punto de salir de mi confusión.
Hay una epidemia. Una persona tiene una probabilidad de $\frac{1}{100}$ de tener la enfermedad. Las autoridades deciden poner a prueba la población, pero la prueba no es completamente fiable: la prueba por lo general da $\frac{1}{110}$ personas un resultado positivo, pero dado que tiene la enfermedad, la probabilidad de obtener un resultado positivo es $\frac{80}{100}$.
Estoy interesado en lo que sucede después de que una persona lleva a otra prueba, específicamente cuánto más información de la que se obtienen.
Probabilidad después de una prueba
Deje $D$ denotar el evento de tener la enfermedad, vamos a $T$ denotar el caso de un resultado positivo de una prueba. Si estamos interesados en encontrar a$P(D|T)$, entonces podemos ir y aplicar la regla de Bayes:
$$ P(D|T) = \frac{P(T|D)P(D)}{P(T)} = \frac{0.8 \times 0.01}{0.009} = 0.88 $$
Esto se siente bien.
Probabilidad después de dos pruebas
Aquí es donde creo que me malinterpretas la regla de Bayes algo. Deje $TT$ denotar el resultado de las dos pruebas positivas. Ahora estamos interesados en calcular;
$$ P(D|TT) = \frac{P(TT|D)P(D)}{P(TT)} $$
Antes de la $P(D)$ todavía $\frac{1}{100}$. $P(TT|D)$ ahora sería de $0.8 \times 0.8$ debido a las dos de la prueba puede ser considerado independiente.
Pero me parece que no sabe cómo lidiar con $P(TT)$ ... no se $\frac{1}{110} \times \frac{1}{110}$ porque entonces;
$$ \frac{P(TT|D)P(D)}{P(TT)} = \frac{0.64 \times 0.01}{0.009^2} > 1 $$
¿Cuál es el enfoque correcto de las dos de la prueba Bayesiana caso?