Creo que el problema radica en la forma en que normalmente resolvemos el problema. Los estudiantes siguen un procedimiento para obtener una respuesta (como la solución de árbol mostrada en el artículo) pero no se aprende nada sobre la estructura del problema. Sea $D$ el evento "tiene la enfermedad" y el complemento de D sea $D^c.$ Y "+" representa "la prueba da una respuesta positiva". Entonces podemos escribir la Regla de Bayes como $$\frac{P(D|+)}{P(D^c|+)}=\frac{P(+|D)}{P(+|D^c)} \frac{P(D)}{P(D^c)} $$
$$\frac{P(D|+)}{1-P(D|+)}= \frac{\text{Sensibilidad}}{\text{Falso Positivo}}\frac{P(D)}{1-P(D)} $$
De izquierda a derecha, esto es: las probabilidades a posteriori son iguales al cociente de verosimilitud multiplicado por el cociente de probabilidades a priori. El término $P(D)/[1-P(D)]$ es el cociente de probabilidades a priori de tener la enfermedad o 1/99 en este ejemplo. Nota que estas son "probabilidades de un evento", en este caso tener la enfermedad. Las probabilidades en el contexto de Las Vegas son "probabilidades en contra". Creo que las probabilidades de un evento son un poco más fáciles de entender ya que las probabilidades y las probabilidades están relacionadas de manera monótona. El cociente de verosimilitud no es un cociente de probabilidades como los otros dos términos. Es decir, los dos primeros y terceros cocientes son de la forma $p/(1-p)$ y son solo una forma diferente de expresar probabilidades. El término del medio se puede pensar como un factor de amplificación que convierte las probabilidades a priori en probabilidades a posteriori. Si es igual a $1$, un resultado positivo de la prueba no nos proporciona información adicional. Esperaríamos un número grande para este cociente. En este ejemplo tenemos un cociente de 10. Entonces esto convierte nuestras probabilidades a priori de 1/99 en probabilidades a posteriori de 10/99. Para convertir las probabilidades a posteriori en probabilidad, utilice: $\dfrac{\text{probabilidades a posteriori}}{1+ \text{probabilidades a posteriori}}$. Entonces obtenemos $P(D|+)=10/109.$ Vemos que un resultado positivo de la prueba aumenta la probabilidad de la enfermedad de $0.01$ a $0.092$.
Claramente vemos que si la prueba tuviera una mayor Sensibilidad o una menor tasa de Falsos Positivos, el cociente de probabilidad aumentaría y terminaríamos con probabilidades a posteriori más altas.
La otra cantidad de interés es $P(D|-),$ es decir, la posibilidad de que tengas la enfermedad aunque obtuviste un resultado negativo en la prueba. (Recuerda: los resultados negativos son buenos y los positivos son malos en la detección de enfermedades.)
$$\frac{P(D|-)}{1-P(D|-)}= \frac{1-\text{Sensibilidad}}{1-\text{Falso Positivo}}\frac{P(D)}{1-P(D)} $$
Esto comienza en $1/99$ como en el ejemplo anterior y tiene un cociente de verosimilitud de $1/9.$ Las probabilidades a posteriori de $1/891$ se convierten en $P(D|-)=1/892.$ Así que puedes estar tranquilo si obtienes un resultado negativo. El resultado de la prueba ha reducido tu probabilidad de enfermedad de $0.01$ a $1/892.$ Nota que aquí estamos comenzando con las mismas probabilidades de enfermedad $P(D)/[1-P(D)]$ pero dado que ahora estamos viendo un resultado "-", una prueba informativa reducirá esas probabilidades que es lo que hace el cociente de $1/9$. Si prefieres cocientes de verosimilitud que sean mayores que 1 para una buena prueba, simplemente recíproca cada factor.
Creo que este enfoque es deseable ya que separa claramente la información previa de la información obtenida de la prueba. Y muestra la Regla de Bayes como un factor que modifica las probabilidades a priori según la efectividad de la prueba.
Aunque esto pueda parecer un enfoque que solo usaría un estadístico Bayesiano, no requiere un punto de vista estadístico Bayesiano.
0 votos
¿No es la explicación típica que la gente presta muy poca atención a la probabilidad previa? La prevalencia es muy baja; la mayoría de las personas sobreestiman.
0 votos
Los médicos y abogados (y también estudiantes de medicina y derecho) son particularmente malos en estadísticas, porque están entrenados para inferir resultados rápidamente a partir de información limitada y luego tratar de persuadir a las personas de que son correctos, incluso si no lo son. Por lo tanto, a menudo se saltan el paso de "¿tiene sentido esto?".