[Advertencia: como un miembro del Objetivo de Bayes Sección de ISBA, mis opiniones no son representativos de todos los estadísticos Bayesianos!, muy por el contrario...]
En resumen, no hay tal cosa como antes con "verdaderamente no hay información".
De hecho, el "informativo" antes es tristemente un nombre inapropiado. Antes de cualquier distribución contiene algunas especificaciones que se asemeja a una cierta cantidad de información. Incluso (o especialmente) el uniforme antes. De hecho, el uniforme antes es plano sólo para un determinado parametrización del problema. Si se cambia a otra parametrización (aunque sea limitada), el Jacobiano del cambio de variable entra en la imagen y la densidad y el estado es plana no.
Como se ha señalado por Elvis, de máxima entropía es un método recomendado para seleccionar los llamados "informativo" de los priores. Se requiere, sin embargo, (a) suficiente información sobre algunos momentos de $h(\theta)$ de la distribución previa de $\pi\cdot)$ para especificar las restricciones de$$\int_{\Theta} h(\theta)\,\text{d}\pi(\theta) = \mathfrak{h}_0$$ que conducen a la MaxEnt antes de
$$\pi^*(\theta)\propto \exp\{ \lambda^\text{T}h(\theta) \}$$
y (b) los preliminares de la elección de una medida de referencia de $\text{d}\mu(\theta)$ [en continuo de la configuración], una opción que trae el debate posterior a su etapa inicial! (Además, el parametrisation de las restricciones (es decir, la elección de $h$) impactos de la forma de la resultante de MaxEnt antes.)
José Bernardo ha producido una original teoría de la referencia de los priores donde él elige el antes con el fin de maximizar la información que le aportan los datos mediante la maximización de la distancia de Kullback entre el anterior y el posterior. En los casos más simples con ninguna molestia parámetros, la solución es Jeffreys' antes. En problemas más complejos, (a) la elección de los parámetros de interés (o incluso una clasificación de su orden de interés) deben ser realizadas; (b) el cálculo de la previa es bastante implicados y requiere de una secuencia de embedded compact establece para evitar improperness problemas. (Ver, por ejemplo, El Bayesiano Choice para detalles.)
En resumen, no hay un "mejor" (o incluso "mejor") elección de "la" "no informativo" antes. Y creo que así es como deben ser las cosas, porque la propia naturaleza del análisis Bayesiano implica que la elección de la distribución previa de los asuntos. Y que no hay comparación de los priores: uno no puede ser "mejor" que otro. (Al menos antes de la observación de los datos: una vez que se observa, la comparación de los priores se convierte en modelo de elección). La conclusión de José Bernardo, Jim Berger, Dongchu Sol, y muchos otros "objetivo" Bayesians es que hay más o menos equivalente de referencia de los priores se puede utilizar cuando se está seguro acerca de la información previa o la búsqueda de un punto de referencia de inferencia Bayesiana, algunos de los priores, parcialmente apoyado por la teoría de la información, argumentos, otros por no Bayesiano frecuentista propiedades (como la coincidencia de los priores), y que da como resultado bastante similar inferencias.