105 votos

¿Qué es un "poco informativo previo"? ¿Podemos siempre tener uno verdaderamente sin información?

Inspirado por un comentario de esta pregunta:

¿Qué consideramos "informativo" en un antes y qué información está contenida en una supuestamente informativo antes?

Yo por lo general ver la previa de un análisis donde es un frecuentista tipo de análisis tratando de pedir prestado algunas buenas piezas a partir de un análisis Bayesiano (algunas más fácil la interpretación de todo el camino a 'la cosa caliente a hacer"), el especificado con anterioridad es una distribución uniforme a través de los límites del efecto de la medida, centrada en 0. Pero incluso los que se afirma de una forma a la anterior sólo pasa a ser plana.

Existe una mejor informativo antes de su uso?

138voto

Lev Puntos 2212

[Advertencia: como un miembro del Objetivo de Bayes Sección de ISBA, mis opiniones no son representativos de todos los estadísticos Bayesianos!, muy por el contrario...]

En resumen, no hay tal cosa como antes con "verdaderamente no hay información".

De hecho, el "informativo" antes es tristemente un nombre inapropiado. Antes de cualquier distribución contiene algunas especificaciones que se asemeja a una cierta cantidad de información. Incluso (o especialmente) el uniforme antes. De hecho, el uniforme antes es plano sólo para un determinado parametrización del problema. Si se cambia a otra parametrización (aunque sea limitada), el Jacobiano del cambio de variable entra en la imagen y la densidad y el estado es plana no.

Como se ha señalado por Elvis, de máxima entropía es un método recomendado para seleccionar los llamados "informativo" de los priores. Se requiere, sin embargo, (a) suficiente información sobre algunos momentos de $h(\theta)$ de la distribución previa de $\pi\cdot)$ para especificar las restricciones de$$\int_{\Theta} h(\theta)\,\text{d}\pi(\theta) = \mathfrak{h}_0$$ que conducen a la MaxEnt antes de $$\pi^*(\theta)\propto \exp\{ \lambda^\text{T}h(\theta) \}$$ y (b) los preliminares de la elección de una medida de referencia de $\text{d}\mu(\theta)$ [en continuo de la configuración], una opción que trae el debate posterior a su etapa inicial! (Además, el parametrisation de las restricciones (es decir, la elección de $h$) impactos de la forma de la resultante de MaxEnt antes.)

José Bernardo ha producido una original teoría de la referencia de los priores donde él elige el antes con el fin de maximizar la información que le aportan los datos mediante la maximización de la distancia de Kullback entre el anterior y el posterior. En los casos más simples con ninguna molestia parámetros, la solución es Jeffreys' antes. En problemas más complejos, (a) la elección de los parámetros de interés (o incluso una clasificación de su orden de interés) deben ser realizadas; (b) el cálculo de la previa es bastante implicados y requiere de una secuencia de embedded compact establece para evitar improperness problemas. (Ver, por ejemplo, El Bayesiano Choice para detalles.)

En resumen, no hay un "mejor" (o incluso "mejor") elección de "la" "no informativo" antes. Y creo que así es como deben ser las cosas, porque la propia naturaleza del análisis Bayesiano implica que la elección de la distribución previa de los asuntos. Y que no hay comparación de los priores: uno no puede ser "mejor" que otro. (Al menos antes de la observación de los datos: una vez que se observa, la comparación de los priores se convierte en modelo de elección). La conclusión de José Bernardo, Jim Berger, Dongchu Sol, y muchos otros "objetivo" Bayesians es que hay más o menos equivalente de referencia de los priores se puede utilizar cuando se está seguro acerca de la información previa o la búsqueda de un punto de referencia de inferencia Bayesiana, algunos de los priores, parcialmente apoyado por la teoría de la información, argumentos, otros por no Bayesiano frecuentista propiedades (como la coincidencia de los priores), y que da como resultado bastante similar inferencias.

27voto

Ηλίας Puntos 109

Una atractiva propiedad de formal noninformative priores es el "frecuentista de coincidencia de la propiedad" : significa que una posterior 95%-intervalo de credibilidad es también (por lo menos, aproximadamente) a un 95%-intervalo de confianza en el frecuentista sentido. Esta propiedad tiene por Bernardo de referencia antes a pesar de la fundations de estos noninformative priores no están orientadas hacia el logro de una buena frecuentista de coincidencia de la propiedad, Si utiliza un "ingenuo" ("flat") noninformative antes, tales como la distribución uniforme o una distribución Gaussiana con una gran varianza, entonces, no hay ninguna garantía de que el frecuentista de coincidencia posee propiedad. Tal vez Bernardo de referencia antes, no puede ser considerado como el "mejor" elección de un noninformative antes, pero podría ser considerado como el más exitoso. Teóricamente supera muchas paradojas de otros candidatos.

15voto

Jeffreys distribuciones también sufren de inconsistencias: el Jeffreys priores de una variable más de $(-\infty,\infty)$ o más de $(0,\infty)$ son incorrectas, que no es el caso de la Jeffreys antes de una probabilidad del parámetro $p$: la medida $\text{d}p/\sqrt{p(1-p)}$ tiene una masa de $\pi$ más de $(0,1)$.

Renyi ha demostrado que los informativos de distribución debe estar asociado con una integral impropia. Ver en lugar Lhoste las distribuciones que evitar esta dificultad y son invariantes bajo cambios de variables (por ejemplo, por $p$, la medida es de $\text{d}p/p(1-p)$).


En primer lugar, la traducción es buena !

Para E. LHOSTE : "Le calcul des probabilités appliqué à l''artillerie", Revue d''artillerie, tomo 91, mayo a agosto de 1923

Para A. RENYI : "En una nueva axiomática de la teoría de la probabilidad" Acta Mathematica, la Académie des Sciences hongroises, tomo VI, fasc.3-4, 1955

Me pueden agregar : M. DUMAS : "Lois de probabilité a priori de Lhoste", Sciences et techniques de l'armement, 56, 4ème fascículo, 1982, pp 687-715

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X