18 votos

Bayes, dos pruebas en una fila

Se me ocurrió un estándar Bayesiana ejemplo, como a punto de salir de mi confusión.

Hay una epidemia. Una persona tiene una probabilidad de $\frac{1}{100}$ de tener la enfermedad. Las autoridades deciden poner a prueba la población, pero la prueba no es completamente fiable: la prueba por lo general da $\frac{1}{110}$ personas un resultado positivo, pero dado que tiene la enfermedad, la probabilidad de obtener un resultado positivo es $\frac{80}{100}$.

Estoy interesado en lo que sucede después de que una persona lleva a otra prueba, específicamente cuánto más información de la que se obtienen.

Probabilidad después de una prueba

Deje $D$ denotar el evento de tener la enfermedad, vamos a $T$ denotar el caso de un resultado positivo de una prueba. Si estamos interesados en encontrar a$P(D|T)$, entonces podemos ir y aplicar la regla de Bayes:

$$ P(D|T) = \frac{P(T|D)P(D)}{P(T)} = \frac{0.8 \times 0.01}{0.009} = 0.88 $$

Esto se siente bien.

Probabilidad después de dos pruebas

Aquí es donde creo que me malinterpretas la regla de Bayes algo. Deje $TT$ denotar el resultado de las dos pruebas positivas. Ahora estamos interesados en calcular;

$$ P(D|TT) = \frac{P(TT|D)P(D)}{P(TT)} $$

Antes de la $P(D)$ todavía $\frac{1}{100}$. $P(TT|D)$ ahora sería de $0.8 \times 0.8$ debido a las dos de la prueba puede ser considerado independiente.

Pero me parece que no sabe cómo lidiar con $P(TT)$ ... no se $\frac{1}{110} \times \frac{1}{110}$ porque entonces;

$$ \frac{P(TT|D)P(D)}{P(TT)} = \frac{0.64 \times 0.01}{0.009^2} > 1 $$

¿Cuál es el enfoque correcto de las dos de la prueba Bayesiana caso?

12voto

Avraham Puntos 2126

Como un aparte, creo que el valor adecuado para $P(D|T)$ es exactamente $.88 = \frac{8}{10}\frac{1}{100}\frac{110}{1}$

Tenemos $P(T)$, la probabilidad de que la prueba que muestra una positiva independientemente del estado de la enfermedad como $\frac{1}{110}$. Esto tiene que ser la probabilidad condicional de un positivo dado enfermo además de la probabilidad condicional de un positivo dado libre de la enfermedad. En otras palabras: $$ \begin{align} P(T) &= P(T\cap D) + P(T\cap \neg D)\\ &= P(T|D)P(D) + P(T|\neg D)P(\neg D)\\ \frac{1}{110} &=\frac{8}{10}\frac{1}{100} + P(T|\neg D)\frac{99}{100}\\ P(T|\neg D) &=\frac{2}{1815} \end{align} $$

Siguiente: $$ \begin{align} P(TT) &= P(TT|D)P(D) + P(TT|\neg D)P(\neg D)\\ &= \frac{64}{100}\frac{1}{100} + \frac{4}{3294225}\frac{99}{100}\\ &=\frac{21087}{3294225} = \frac{213}{33275} \approx 0.006401202 \end{align} $$ Ahora $$ \begin{align} P(D|TT) &= \frac{P(TT|D)P(D)}{P(TT)}\\ &= \frac{64}{100}\frac{1}{100}\frac{33275}{213}\\ &= \frac{5324}{5325} \approx 0.999812207 \end{align} $$

Así que, después de dos pruebas, estamos realmente seguro de que esta persona está enferma.

Actualización

En general, sin embargo, con la estimación Bayesiana, uno puede usar el anterior posterior como el actual prior-- ver las diapositivas 3 y 4. Esto va a seguir a través de aquí. Deje $P(D^*)$ ser el nuevo prior (después de una prueba). Ahora vivimos de nuevo en una prueba mundial, como una de las pruebas después de una prueba es el mismo que dos pruebas después de que ninguna de las pruebas. Por lo $P(D^*)$ $0.88$ desde arriba. $P(T|D^*)$ sigue siendo el mismo que hace $P(T|\neg D^*)$. Así que, todo lo que necesitamos es: $$ \begin{align} P(TT) &= P(T|D^*)P(D^*) + P(T|\neg D^*)P(\neg D^*)\\ &= 0.8\cdot.88 + \frac{2}{1815}\cdot0.12\\ &= \frac{426}{605} \approx 0.704132231 \end{align} $$

Tenga en cuenta que $P(TT)$ $D^*$ del mundo es mucho mayor que $P(TT)$ $D$ mundial. Se sitúa a la razón desde $TT$ $D^*$ se $T$ (una prueba) después de conocer ya una prueba positiva. $TT$ $D$ es un a priori de dos pruebas saber nada. Ahora, como antes: $$ \begin{align} P(D|TT) &= \frac{P(TT|D)P(D)}{P(TT)}\\ &=\frac{8}{10}\frac{88}{100}\frac{605}{426}\\ &=\frac{5324}{5325} \approx 0.999812207 \end{align} $$

3voto

Cyrus Puntos 211

Calcular $P(TT)$ de la misma manera se calcula $P(T)$ - el uso de la Ley de total probabilidad: $$P(TT)=P(TT|D)P(D)+P(TT|\neg D)P(\neg D)=0.8^2\times 0.01 + P(T|\neg D)^2\times 0.99$$

Por desgracia, no puedo entender lo $P(T|\neg D)$ en su declaración del problema.

3voto

PA6OTA Puntos 1723

Este es uno interesante. Parece que no se puede llevar a la independencia a través de las condiciones. Lo que significa es que, si el resultado es positivo, entonces la siguiente prueba es también más propensos a ser positiva (puede usted explicar por qué?).

Por lo tanto, para encontrar $P(TT)$, es necesario condición primera, como sds hizo en su respuesta.

Para encontrar $P(T|\neg D)$, podemos usar $P(T) = 1/110$ $P(T | D) = 0.8$ A continuación, $$P(T, \neg D) = P(T) - P(TD) = P(T) - P(T|D)P(D) \approx 0.00909 - 0.008 $$ et cetera.

También, se puede discutir si la prueba de errores son verdaderamente independientes de una prueba a otra en la misma persona (ya que puede depender de ciertas sustancias químicas en el cuerpo, lo más probable es que no), pero esta discusión está más allá de este simple problema.

2voto

heropup Puntos 29437

¿Cuál es la probabilidad condicional de a $\Pr[T \mid \bar D]$; es decir, la probabilidad de obtener un solo falso positivo? Este es $$\Pr[T \mid \bar D] = \frac{\Pr[T \cap \bar D]}{\Pr[\bar D]} = \frac{\Pr[T] - \Pr[T \cap D]}{\frac{99}{100}} = \frac{\frac{1}{110} - \frac{1}{100}\frac{8}{10}}{\frac{99}{100}} = \frac{2}{1815}.$$ Then the probability of two successive false positives is $$\Pr[T_1 \cap T_2 \mid \bar D] = \Pr[T \mid \bar D]^2.$$ Therefore the unconditional probability of two positive tests is $$\Pr[T_1 \cap T_2] = \Pr[T_1 \cap T_2 \mid D]\Pr[D] + \Pr[T_1 \cap T_2 \mid \bar D]\Pr[\bar D]$$ and the desired probability is $$\Pr[D \mid (T_1 \cap T_2)] = \frac{\Pr[T \mid D]^2 \Pr[D]}{\Pr[T \cap T_2]}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X