Me he encontrado con la "paradoja" de Bartlett (no confundir con Paradoja de Lindley también conocida como la paradoja de Lindley-Bartlett) en la estadística bayesiana. La paradoja tiene su origen en el artículo de Bartlett de 1957, Comentario sobre la paradoja estadística de D. V. Lindley .
La paradoja de Bartlett es bastante trivial. Supongamos que con un factor de Bayes se comparan dos modelos, $a$ y $b$ con parámetros ajustables. Modelo $b$ tiene un parámetro ajustable $p$ que a priori podría adoptar una amplia gama de valores $N$ para el que una distribución uniforme es una prior adecuada (supongamos que es un parámetro de localización).
El factor de Bayes es $$ \frac{p(D\mid M_a)}{p(D\mid M_b)} \propto N $$ Si a priori sabemos muy poco sobre el parámetro $p$ puede ser que queramos considerar un previo impropio $N\to\infty$ o al menos muy grande $N$ . En este caso, debemos favorecer el modelo $a$ casi independientemente de los datos (aunque aquí hay que tener cuidado con el límite: si cada $p(D\mid M)$ está normalizado, $p(D\mid M_b) \ge p(D\mid M_a)$ para algunos $D$ ).
¿Qué debemos hacer? ¿Es una paradoja? ¿Cómo debemos afrontar esta situación en la que no tenemos suficiente información previa para restringir un parámetro del modelo pero queremos hacer una comparación de modelos? Puede que no haya ningún error y que debamos favorecer el modelo $a$ en esta situación?