Permítanme que comience diciendo que soy un estadístico aplicado que se está formando en regresión bayesiana. Si podemos hacerlo sin letras griegas, sería estupendo.
Supongamos que estoy modelando un resultado continuo en algún predictor. Vamos a suponer una prioridad de Jeffrey para la varianza. Ahora necesito una prioridad para mi predictor y la constante. Esencialmente, lo que estoy haciendo es establecer una distribución de la que se extraerán los valores para los parámetros (los coeficientes para la constante y el predictor), ¿correcto?
Asumiendo que quiero priors informativos, mi inclinación inmediata es ir con un prior normal. Fijo la media en mi "mejor estimación" de cuál debería ser el efecto del predictor y luego fijo la varianza. Me gusta la distribución normal porque básicamente favorece los valores cercanos a mi suposición mientras que descuenta los que están lejos de ella (es decir, las colas) y los descuenta de forma simétrica. También me pregunto específicamente si puedo hacer uso de la desviación estándar para caracterizar mi confianza en mi conjetura. Un ejemplo lo ilustrará.
Entiendo que mayores varianzas significan menor peso asignado a la creencia previa. Sin embargo, tengo curiosidad por saber si puedo interpretar esto en términos de desviaciones estándar. Por ejemplo, si creo que el efecto será 5, establezco la media en 5. Digamos que tengo un 95% de confianza en que el efecto estará entre 15 y -5. Esto requeriría una desviación típica de 5, por lo que establecería la varianza en 25. ¿Es ésta la forma adecuada de describir el efecto? ¿Es ésta una forma adecuada de describir mi confianza en la probabilidad a priori?
Otro ejemplo: si tuviera la certeza absoluta de que el efecto va a estar entre -10 y 20, utilizaría un valor a priori uniforme entre -10 y 20, ¿correcto? ¿También estoy en lo cierto al suponer que todo esto es cierto independientemente de la distribución real de la variable independiente (es decir, podría ser continua o dicotómica)?