Tengo muchas ganas de aprender técnicas bayesianas, así que he estado intentando enseñarme un poco. Sin embargo, me cuesta ver cuándo el uso de técnicas bayesianas supone una ventaja sobre los métodos frecuentistas. Por ejemplo: He visto en la literatura un poco sobre cómo algunos utilizan priores informativos mientras que otros utilizan priores no informativos. Pero si usas una priorización no informativa (lo que parece muy común?) y descubres que la distribución posterior es, digamos, una distribución beta... ¿no podrías haber ajustado una distribución beta al principio y darlo por bueno? No veo cómo construir una distribución a priori que no te dice nada... puede, bueno, ¿realmente decirte algo?
Resulta que algunos métodos que he estado usando en R utilizan una mezcla de métodos bayesianos y frecuentistas (los autores reconocen que esto es algo inconsistente) y ni siquiera puedo discernir qué partes son bayesianas. Aparte del ajuste de la distribución, ni siquiera puedo entender CÓMO se utilizan los métodos bayesianos. ¿Existe la "regresión bayesiana"? ¿Qué aspecto tendría? Todo lo que puedo imaginar es adivinar la distribución subyacente una y otra vez, mientras que el frecuentista piensa un poco en los datos, los observa, ve una distribución de Poisson y ejecuta un MLG. (Esto no es una crítica... ¡es que no lo entiendo!)
Así que ¿quizás algunos ejemplos elementales ayudarían? Y si conoces alguna referencia práctica para principiantes como yo, ¡también sería de gran ayuda!