En su libro "All of Statistics", el profesor Larry Wasserman presenta el siguiente ejemplo (11.10, página 188). Supongamos que tenemos una densidad $f$ tal que $f(x)=c\,g(x)$ , donde $g$ es un conocido (no negativa, integrable) y la constante de normalización $c>0$ es desconocido .
Nos interesan los casos en los que no podemos calcular $c=1/\int g(x)\,dx$ . Por ejemplo, puede darse el caso de que $f$ es un pdf sobre un espacio muestral de muy alta dimensión.
Es bien sabido que existen técnicas de simulación que nos permiten tomar muestras de $f$ aunque $c$ es desconocido. Por lo tanto, el rompecabezas es: ¿Cómo podemos estimar $c$ de dicha muestra?
El profesor Wasserman describe la siguiente solución bayesiana: dejemos $\pi$ ser algo previo para $c$ . La probabilidad es $$ L_x(c) = \prod_{i=1}^n f(x_i) = \prod_{i=1}^n \left(c\,g(x_i)\right) = c^n \prod_{i=1}^n g(x_i) \propto c^n \, . $$ Por lo tanto, la posterior $$ \pi(c\mid x) \propto c^n \pi(c) $$ no depende de los valores de la muestra $x_1,\dots,x_n$ . Por lo tanto, un bayesiano no puede utilizar la información contenida en la muestra para hacer inferencias sobre $c$ .
El profesor Wasserman señala que "los bayesianos son esclavos de la función de probabilidad. Cuando la probabilidad se desvía, también lo hace la inferencia bayesiana".
Mi pregunta para mis compañeros de pila es: En relación con este ejemplo concreto, ¿qué ha fallado (si es que ha fallado algo) en la metodología bayesiana?
P.D. Como ha explicado amablemente el profesor Wasserman en su respuesta, el ejemplo se debe a Ed George.