Puede que sea una pregunta ingenua, pero aun así la hago ya que no he podido encontrar fácilmente una respuesta.
Supongamos que tenemos un parámetro desconocido, $\theta$ y alguna función $\theta \mapsto f(\theta)$ .
Supongamos también que tenemos una distribución a priori para el valor de $\theta$
Por último, suponemos para simplificar que no hemos obtenido ninguna información todavía, por lo que nuestra distribución posterior es igual a la distribución apriori.
Así que nuestra mejor estimación de $\theta$ es $\tilde{\theta} = E[\theta]$ .
Según tengo entendido, lo típico que se hace en la estadística bayesiana para calcular $f$ y, por favor, corríjanme si me equivoco, es ahora simplemente evaluar $f(E[\theta]) = f(\tilde{\theta})$ .
Sin embargo, ¿no sería más correcto calcular $E[f(\theta)]$ ?
Si $f$ es convexo, por ejemplo, se deduce que este último es mayor que el primero, por lo que habrá una diferencia sistemática entre las dos variantes.
La razón por la que pregunto esto es que tengo un modelo donde la computación $f(\theta)$ para un determinado $\theta$ es caro, por lo que la computación real $E[f(\theta)]$ está lejos de ser deseable.
Edición: Ok, acabo de leer sobre las distribuciones predictivas posteriores y parece que probablemente estaba equivocado en mi suposición de que uno simplemente utiliza el valor esperado como el parámetro "verdadero".