Definir probabilidad . Lo digo en serio. Antes de que avancemos más, tenemos que establecer los términos.
Una definición intuitiva de la probabilidad es una medida de incertidumbre. No estamos seguros de si el próximo lanzamiento de una moneda saldrá cara o cruz. Eso es incertidumbre en los datos $D$ . También tenemos la incertidumbre de si la moneda es justa o no. Eso es incertidumbre sobre el modelo $M$ ... o puede llamar a la incertidumbre sobre el estado del mundo.
Para llegar a la distribución condicional $P(M|D)$ se necesita tener la distribución conjunta $P(M,D)$ -- es decir, el conocimiento de toda la población de monedas en circulación, cuántas de ellas son falsas y cómo se comportan las monedas falsas (que puede depender en la forma en que las monedas giran y son atrapadas en el aire).
En el ejemplo particular de las monedas, esto es al menos conceptualmente posible - las cifras del gobierno son disponible en las monedas que se supone son justas (28 $\cdot$ 10 9 al año), o al menos las que tienen características estables. En cuanto a las monedas forjadas, probablemente no merezca la pena hablar de la escala de producción de menos de un millón, por lo que $10^6/28\cdot10^9$ puede haber una probabilidad de que la moneda que sacaste de la caja registradora sea injusta. Entonces tienes que idear un modelo de cómo funciona la moneda injusta... y obtener la distribución conjunta, y condicionar los datos.
En los problemas del mundo práctico con digamos las condiciones médicas y la forma en que funcionan, es posible que no se pueda llegar a ninguno de estos componentes de la distribución conjunta, y no se puede condicionar.
La modelización bayesiana proporciona a manera de simplificar los modelos y llegar a estas uniones $P(M,D)$ . Pero el diablo está en los detalles. Si dices que la moneda justa es la que tiene $p=0.5$ y luego seguir adelante y especificar un Beta tradicional a priori, y obtener el Beta conjugado posterior, entonces... ¡sorpresa, sorpresa! $P(p=0.5)=0$ para cualquiera de estas distribuciones continuas, no importa si su prioridad es $B(0.5,0.5)$ o $B(1000,1000)$ . Así que tendrías que incorporar una masa puntual en $0.5$ , dale una masa previa ( $28\cdot10^9/(28\cdot10^9 + 10^6)$ , digamos), y ver si sus datos alejan la parte posterior de esa masa puntual. Se trata de un cálculo más complicado que implica el muestreo de Metrópolis-Hastings en lugar del muestreo de Gibbs más tradicional.
Además de las dificultades para hablar de cuáles son exactamente los modelos correctos, los métodos bayesianos tienen formas limitadas de tratar la mala especificación del modelo. Si no te gustan los errores gaussianos, o no crees en la independencia de los lanzamientos de monedas (tu mano se cansa después de los primeros 10.000 lanzamientos, así que no la lanzas tan alto como las primeras 1.000 veces, lo que puede afectar a las probabilidades), todo lo que puedes hacer en el mundo bayesiano es construir un modelo más complicado: pegar priors de ruptura para mezclas normales, splines en las probabilidades a lo largo del tiempo, lo que sea. Pero no hay un análogo directo a los errores estándar del sándwich de Huber que reconozca explícitamente que el modelo puede estar mal especificado, y que esté preparado para dar cuenta de ello.
Volviendo a mi primer párrafo de nuevo, define la probabilidad. La definición formal es el trío $<\Omega,{\mathcal F},P>$ . $\Omega$ es el espacio de resultados posibles (combinaciones de modelos y datos). $\mathcal F$ es el $\sigma$ -álgebra de lo que se puede medir en ese espacio. $P$ es la medida de probabilidad/densidad adjunta a los subconjuntos $A\subset \Omega$ , $A\in\mathcal F$ -- que tienen que ser medibles para que las matemáticas de la probabilidad funcionen. En dimensiones finitas, la mayoría de los conjuntos razonables son medibles -- ver Conjuntos de Borel No voy a aburrirle con detalles. Con los espacios infinitos más interesantes (los de las curvas y las trayectorias, por ejemplo), las cosas se ponen peliagudas muy rápidamente. Si tienes un proceso aleatorio $X_t, t\in[0,1]$ en un intervalo de tiempo unitario, entonces el conjunto $\{ X_t > 0, t\in[0,0.5]\}$ es no medible, a pesar de su aparente simplicidad. (Conjuntos como $\{ X_t > 0, t\in\{t_1, t_2, \ldots, t_k\}\}$ son medibles para un número finito de $k$ y, de hecho, generar el $\sigma$ -Álgebra. Pero eso no es suficiente, aparentemente). Así que las probabilidades en dimensiones grandes pueden ser complicadas incluso a nivel de definiciones, por no hablar de los cálculos.
0 votos
Todavía tendría que modelar su experimento de alguna manera para poder calcular la función de probabilidad.
12 votos
Pete Dixon escribió un artículo en 1998 titulado "Why scientists value p-values" ( psychonomic.org/backissues/1631/R382.pdf ) que podría ser una lectura informativa. Una buena continuación sería el artículo de Glover y Dixon de 2004 sobre el cociente de probabilidad como métrica de sustitución ( pbr.psychonomic-journals.org/content/11/5/791.full.pdf ).
3 votos
Mike, eso me parece sospechosamente una buena respuesta. ¿Qué hace en los comentarios?
0 votos
John D. Cook publicó una excelente respuesta a una pregunta mía, que creo que le resultará interesante: stats.stackexchange.com/questions/1164/
0 votos
La gente no utiliza los valores p, los estadísticos sí. (No he podido resistirme a un dicho enjundioso que también es cierto. Por supuesto, una vez que empiezas a calificar adecuadamente cada sustantivo, pierde su contundencia).
0 votos
Exactamente tu ejemplo (la distribución de Bernoulli) se describe en la Wikipedia con palabras sencillas (comparando con otras respuestas en este tema): Factores de Bayes
0 votos
Los enlaces anteriores a Dixon 1998 y Glover & Dixon 2004 se han estropeado. las urls de las páginas web de las revistas son link.springer.com/article/10.3758/BF03196706 y link.springer.com/article/10.3758/BF03208815
0 votos
Los valores P son menos aplicables de lo que se da a entender en el post original porque el post es incorrecto al decir que son probabilidades de los resultados experimentales dada una hipótesis. En cambio, son probabilidades de un más impresionante resultado experimental que el realmente obtenido, dada una hipótesis.