39 votos

¿Qué relación existe entre las regiones creíbles y las pruebas de hipótesis bayesianas?

En la estadística frecuentista, existe una estrecha relación entre los intervalos de confianza y las pruebas. El uso de la inferencia sobre $\mu$ en el $\rm N(\mu,\sigma^2)$ como ejemplo, el $1-\alpha$ intervalo de confianza $$\bar{x}\pm t_{\alpha/2}(n-1)\cdot s/\sqrt{n}$$ contiene todos los valores de $\mu$ que no son rechazados por el $t$ -prueba al nivel de significación $\alpha$ .

Los intervalos de confianza frecuentista son, en este sentido, pruebas invertidas. (Por cierto, esto significa que podemos interpretar el $p$ -como el valor más pequeño de $\alpha$ para lo cual el valor nulo del parámetro se incluiría en el $1-\alpha$ intervalo de confianza. Me parece que esto puede ser una forma útil de explicar lo que $p$ -valores realmente son para la gente que sabe un poco de estadística).

Leer sobre el fundamento teórico de la decisión de las regiones creíbles bayesianas Me he preguntado si existe una conexión/equivalencia similar entre las regiones creíbles y las pruebas bayesianas.

  • ¿Existe una conexión general?
  • Si no hay una conexión general, ¿hay ejemplos en los que haya una conexión?
  • Si no hay una conexión general, ¿cómo podemos ver esto?

-1voto

Vidal Cazarez Puntos 41

Permítame darle cómo lo conseguí leer La respuesta de Tim .

Se basa en la vistas de la tabla con la hipótesis (parámetro estimado) en las columnas y las observaciones en las filas.

enter image description here

En la primera tabla, se tienen las probabilidades de col que suman 1, es decir, son probabilidades condicionales, cuya condición, entrar en el evento de la columna se suministra en la fila inferior, llamada "prior". En la última tabla, las filas también suman 1 y en el centro tienes las probabilidades conjuntas, es decir, las probabilidades condicionales que encuentras en la primera y la última tabla multiplicadas por la probabilidad de la condición, los prioritarios.

Las tablas básicamente realizan la transformación bayesiana: en la primera tabla, das p.d.f de las observaciones (filas) en cada columna, estableces el prior para esta hipótesis (sí, la columna de la hipótesis es un pdf de las observaciones bajo esa hipótesis), lo haces para cada columna y la tabla lo lleva primero a la tabla de probabilidades conjuntas y, después, a las probabilidades de tu hipótesis, condicionadas por las observaciones.

Como he sacado de la respuesta de Tim (corrígeme si me equivoco), el enfoque del intervalo crítico se fija en la primera tabla. Es decir, una vez completado el experimento, conocemos la fila de la tabla (cara o cruz en mi ejemplo, pero se pueden hacer experimentos más complejos, como 100 lanzamientos de moneda y obtener una tabla con 2^100 filas). El frecuencialista recorre sus columnas, que, como he dicho, es una distribución de posibles resultados bajo la condición de que la hipótesis sea verdadera (por ejemplo, la moneda es justa en mi ejemplo), y rechaza aquellas hipótesis (columnas) que tengan un valor de probabilidad muy bajo en la fila observada.

El bayesianista primero ajusta las probabilidades, convirtiendo las cols en filas y mira la tabla 3, encuentra la fila del resultado observado. Como también es un p.d.f., recorre la fila del resultado del experimento y elige la hipótesis de mayor probabilidad hasta que su bolsa de credibilidad del 95% esté llena. El resto de hipótesis se rechazan.

¿Qué te parece? Todavía estoy en proceso de aprendizaje y el gráfico me parece útil. Creo que voy por el buen camino ya que un usuario reputado da la misma imagen, cuando analiza la diferencia de dos enfoques . He propuesto una visión gráfica de la mecánica de la selección de hipótesis.

Animo a todo el mundo a leer la última respuesta de Keith, pero mi imagen de la mecánica de las pruebas de hipótesis puede decir inmediatamente que los frecuentistas no miran las otras hipótesis cuando verifican la actual, mientras que la consideración de las hipótesis de alta credibilidad tiene un gran impacto en la recepción/rechazo de las otras hipótesis en los análisis bayesianos, porque si tienes una única hipótesis que se da el 95% de las veces bajo los datos observados, descartas todas las demás hipótesis inmediatamente, independientemente de lo bien que se ajusten los datos a ellas. Dejemos a un lado el análisis de potencia estadística, que contrasta dos hipótesis en función de la superposición de sus intervalos de confianza.

Pero, me parece haber detectado la similitud entre dos enfoques: parecen estar conectados a través de P(A | B) > P(A) <=> P(B|A) > P(B) propiedad . Básicamente, si hay una dependencia entre A y B, entonces aparecerá como correlación en las tablas freq y bayesianas. Por lo tanto, si una prueba de hipótesis se correlaciona con la otra, deben dar los mismos resultados. El estudio de las raíces de la correlación, probablemente le dará la conexión entre los dos. En mi pregunta allí en realidad pregunto por qué es la diferencia en lugar de la correlación absoluta?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X