Si el interés es simplemente estimar los parámetros de un modelo (estimación puntual y/o por intervalos) y la información a priori no es fiable, débil, (sé que esto es un poco vago pero estoy tratando de establecer un escenario en el que la elección de una previa es difícil) ... ¿Por qué alguien elegiría utilizar el enfoque bayesiano con priores impropios "no informativos" en lugar del enfoque clásico?
Respuestas
¿Demasiados anuncios?Hay dos razones por las que uno puede optar por un enfoque bayesiano, incluso si está utilizando priores altamente no informativos:
- Problemas de convergencia. Hay algunas distribuciones (la binomial, la binomial negativa y la gamma generalizada son las que más conozco) que tienen problemas de convergencia una cantidad no trivial de veces. Se puede utilizar un marco "bayesiano" -y, en particular, los métodos de Monte Carlo con cadena de Markov (MCMC)- para superar esencialmente estos problemas de convergencia con potencia de cálculo y obtener estimaciones decentes.
- Interpretación. Una estimación bayesiana + un intervalo de credibilidad del 95% tiene una interpretación más intuitiva que una estimación frecuentista + un intervalo de confianza del 95%, por lo que algunos pueden preferir informar simplemente de ellos.
Aunque los resultados van a ser muy similares, sus interpretaciones difieren.
Los intervalos de confianza implican la noción de repetir un experimento muchas veces y poder captar el parámetro verdadero el 95% de las veces. Pero no se puede decir que se tiene un 95% de oportunidad de capturarlo.
Los intervalos creíbles (bayesianos), por otro lado, permiten decir que hay un 95% de "probabilidad" de que el intervalo capture el valor verdadero. Actualización: Una forma más bayesiana de decirlo sería que se puede tener un 95% de confianza en los resultados.
Esto es sólo porque pasó de $P(Data|Hypothesis)$ a $P(Hypothesis|Data)$ utilizando la regla de Baye.
Creo que una de las razones para hacerlo es que un análisis bayesiano le proporciona una distribución posterior completa. Esto puede dar lugar a intervalos más detallados que el típico análisis frecuentista $\pm 2 \sigma$ . Una cita aplicable, de Reis y Stedinger 2005, es:
Proporcionar una distribución posterior completa de los parámetros es una ventaja del enfoque bayesiano  sobre los métodos clásicos, que que suelen proporcionar sólo una estimación puntual de los parámetros representada por representados por la moda de la función de verosimilitud, y hacen uso de normalidad asintótica y una aproximación cuadrática de la de la función de verosimilitud para describir las incertidumbres. Con el marco bayesiano no es necesario utilizar ninguna aproximación para evaluar las incertidumbres porque se dispone de la distribución posterior completa de los parámetros está disponible. Además, un análisis bayesiano puede proporcionar intervalos creíbles para los parámetros o cualquier función de los parámetros que son más fáciles de interpretar que el concepto de intervalo de confianza en la estadística clásica (Congdon, 2001).
Así, por ejemplo, se pueden calcular intervalos creíbles para la diferencia entre dos parámetros.
Sir Harold Jeffreys era un firme defensor del enfoque bayesiano. Demostró que si se utilizan priores impropios difusos la inferencia bayesiana resultante sería la misma que el enfoque inferencial frecuentista (es decir, las regiones creíbles bayesianas son las mismas que los intervalos de confianza frecuentistas). La mayoría de los bayesianos abogan por los priores informativos adecuados. Hay problemas con los priores inadecuados y algunos pueden argumentar que ningún prior es verdaderamente no informativo. Creo que los bayesianos que utilizan estas prioridades de Jeffreys lo hacen como seguidores de Jeffreys. Dennis Lindley uno de los más firmes defensores del enfoque bayesiano, respetaba mucho a Jeffreys, pero defendía los priores informativos.
Podríamos discutir eternamente sobre los fundamentos de la inferencia para defender ambos enfoques, pero permítanme proponer algo diferente. A $\textit{practical}$ La razón para favorecer un análisis bayesiano frente a uno clásico se muestra claramente en la forma en que ambos enfoques tratan la predicción. Supongamos que tenemos el caso habitual de i.i.d. condicional. Clásicamente, se define una densidad de predicción enchufando el valor $\hat{\theta} = \hat{\theta}(x_1,\dots,x_n)$ de una estimación del parámetro $\Theta$ en la densidad condicional $f_{X_{n+1}\mid\Theta}(x_{n+1}\mid\theta)$ . Esta densidad de predicción clásica $f_{X_{n+1}\mid\Theta}(x_{n+1}\mid\hat{\theta})$ no tiene en cuenta la incertidumbre de la estimación $\hat{\theta}$ : dos estimaciones puntuales iguales con intervalos de confianza totalmente diferentes dan la misma densidad de predicción. En cambio, la densidad de predicción bayesiana tiene en cuenta la incertidumbre sobre el parámetro, dada la información de una muestra de observaciones, de forma automática, ya que $$ f_{X_{n+1}\mid X_1,\dots,X_m}(x_{n+1}\mid x_1,\dots,x_n) = \int f_{X_{n+1}\mid\Theta}(x_{n+1}\mid\theta) \, \pi(\theta\mid x_1,\dots,x_n) \, d\theta \, . $$
- Ver respuestas anteriores
- Ver más respuestas