Preliminares
En primer lugar, sé que el debate Bayesiano/Frecuentista es bastante largo en este momento, pero espero que mi pregunta sea lo suficientemente diferente de las otras que revisé en este sitio antes de hacer esta pregunta.
Para que otros no empiecen a remitirme los numerosos enlaces de este sitio para "¿Qué es la probabilidad bayesiana?" o "Intervalos de confianza frente a intervalos de credibilidad", permítanme decir que soy sin preocuparse por las diferencias entre las probabilidades bayesianas y las frecuenciales, como yo lo entiendo. Lo que quiero saber es por qué debería confiar en los intervalos de credibilidad bayesianos como una descripción fiable del rango plausible de valores de los parámetros.
Mi pregunta principal, luego algunos antecedentes:
¿En qué nos basamos para juzgar la fiabilidad (o confiabilidad) de los intervalos de credibilidad bayesianos?
Lo pregunto porque hay un enigma con los Intervalos de Credibilidad que no veo con los Intervalos de Confianza: ¿cómo determino el "riesgo" de estar equivocado?
Un ejemplo de intervalos de confianza
Un intervalo de confianza del 95% es construido sea correcta (es decir, que cubra el parámetro verdadero) en el 95% de las muestras a las que se aplica: el 95% es una probabilidad que se aplica al procedimiento a lo largo de muchas muestras. Sin embargo, al igual que una realización de una variable aleatoria no tiene por qué acercarse a su valor medio, cualquier IC individual no tiene por qué, en principio, situarse entre los corchetes de nada que se acerque al valor verdadero.
Pero... cuando realizamos una inferencia, formamos un IC en un intento de mostrar el rango plausible de valores de los parámetros, dados los datos que hemos recogido. En una interpretación frecuencial, yo no puede asignar ninguna probabilidad a un intervalo real, ya que no hay más aleatoriedad a la que aplicar una probabilidad.
Entonces, ¿por qué me importa esto específico ¿Qué me dice esto sobre los valores de los parámetros que se infieren? He visto dos reacciones principales a esta pregunta:
- "¡Nada!" cubre o no el verdadero parámetro, pero eso es todo.
- "Hay un 95% de posibilidades de que el valor verdadero se encuentre en este intervalo".... normalmente seguido de respuestas como que "los IC individuales no pueden tener una probabilidad"
Sin embargo, hay una tercera posibilidad que creo que la mayoría de los que confiamos en los intervalos de confianza utilizamos realmente al interpretar un IC individual:
"No sé si este intervalo de confianza del 95% en particular contiene el valor verdadero, pero el procedimiento produce intervalos que no dan en el blanco sólo el 5% de las veces, por lo que asume que este intervalo pone entre paréntesis el valor verdadero. Dada esta suposición, sigo sin saber que valor en el intervalo es el valor verdadero, así que interpretaré el intervalo como los valores "probables" del valor verdadero".
Esta interpretación (ciertamente larga... [no muy diferente a este post ;-)]) tiene una serie de buenas características:
- Separa claramente la afirmación de la probabilidad de la evaluación "subjetiva" o "de probabilidad". Por tanto, sé que mi interpretación será errónea en el 5% de las muestras (para un IC del 95%)... pero ...estará bien en el otro 95% (Como Richard Royall escribió memorablemente "A veces la evidencia es engañosa"... ¡seguir los datos a donde nos llevan tiene sus propios riesgos!)
- Hay una base clara para evaluar/validar mi confianza... basta con tomar un gran número de muestras de una distribución conocida y probar si funciona como se anuncia.
Una advertencia...
- Algunos intervalos de confianza tienen una propiedad llamada "ancilaridad"... que significa que la confianza global en el procedimiento es realmente una marginal probabilidad, donde estamos marginando sobre la condicional confianza en el procedimiento dado el valor del estadístico auxiliar (por tanto, el estadístico auxiliar identifica "subconjuntos relevantes" de la población de posibles intervalos de confianza, cada uno de los cuales puede tener una confianza muy diferente en comparación con la confianza media general (es decir, incondicional) del procedimiento). Existen métodos para corregir un intervalo dado un estadístico auxiliar para que alcance la confianza deseada (busque "inferencia condicional" y los trabajos de Nancy Reid, Richard Cox y otros)
Ahora, sobre los intervalos de credibilidad bayesiana
Las estimaciones bayesianas (probabilidades, intervalos) no tienen que tener ninguna propiedad de muestreo repetido. Esto es a la vez una bendición y una maldición. Una bendición porque podemos afirmar que la "probabilidad" asignada al intervalo es en realidad una probabilidad para que intervalo. Una maldición en el sentido de que no tenemos forma de calibrar nuestro sentido del riesgo inferencial: una probabilidad bayesiana de "0,95" no se aplica a nada tangible o verificable. Sin embargo, muchos estadísticos confían en estos intervalos. Entonces, ¿qué me estoy perdiendo? Este es mi dilema:
- Si insistimos en que el "95%" de probabilidad no se aplica a una secuencia teórica de ensayos repetidos (o cualquier sentido de repetición), entonces el "95%" es sólo un número calculado utilizando un sistema formalmente consistente con los axiomas de la Teoría de la Probabilidad.
- Si apelamos a la trayectoria de las técnicas que utilizan la Probabilidad Bayesiana, ¿no estamos apelando al criterio frecuentista?
Ahora, no tengo ningún problema con el Bayesiano fórmula para calcular las estimaciones... Los veo como intentos sensatos de "regularizar" o "estabilizar" las estimaciones de muestras pequeñas. Sin embargo, todavía no he visto una alternativa viable al concepto de confianza al evaluar los procedimientos inferenciales. Para mí tiene mucho sentido que confiemos en un método que casi siempre es correcto.
Tenga en cuenta que si asumimos que el LLN se mantiene y hay un valor verdadero del parámetro por ahí, entonces nuestro Intervalo de Credibilidad Bayesiano está sujeto a la misma tautología que un Intervalo de Confianza... o contienen el valor verdadero o no. No hay forma lógica de evitarlo. Lo que parece cambiar es el "riesgo" que atribuimos al intervalo.
Yo, por mi parte, confío en los intervalos de confianza de la misma manera que confiaría en un asesor experto. La mayoría de las veces son correctos, pero de vez en cuando se equivocan. A falta de información "auxiliar" (como su exactitud en función del tipo de pregunta), asumo que sus respuestas son correctas y acepto el (pequeño) riesgo de equivocarme. Esa es la naturaleza del azar.
No sé cómo tendría la misma confianza en un asesor que defiende una probabilidad bayesiana del 95% de tener razón...
4 votos
Tal vez tu enigma pueda resolverse señalando que el intervalo creíble bayesiano no es "erróneo" aunque no cubra el valor "verdadero" del parámetro de interés. No pretende cubrirlo, sino que pretende contener (por ejemplo) el 95% del área bajo la distribución de probabilidad posterior. La contabilización del "error" que resulta tan fácil con los análisis frecuentistas es la forma más sencilla de pensar en la fiabilidad y la confiabilidad, pero no es la única.
0 votos
@MichaelLew gracias por tu atento comentario. Lo que no entiendo es por qué me importa la distribución de probabilidad posterior. De hecho, no sólo DECLARA abarcarla, sino que realmente lo hace (por definición, ¿correcto?) Dado un prior, un modelo de verosimilitud y los datos, obtendrá un posterior que puede utilizar para crear intervalos. Pero lo que es tan bueno de esta posterior... si decido actuar COMO SI mi parámetro estuviera en el intervalo creíble, ¿cómo puedo calibrar mi riesgo de actuar sobre una inferencia incorrecta?
0 votos
Observo que la función de verosimilitud es un producto de los datos y del modelo estadístico, pero no es ninguna de las dos cosas. a modelo ni el modelo.
2 votos
Si su prioridad se basa en un uso apropiado de la información real relevante, entonces su intervalo de confianza bayesiano tendrá a menudo mejores propiedades frecuentistas que el intervalo de confianza frecuentista. Sin embargo, si su previa es poco informativa (es decir, neutral con respecto a la ubicación del parámetro de interés) el intervalo bayesiano a menudo se comportará igual que el intervalo frecuentista, y si su previa es mala entonces el intervalo bayesiano se comportará peor. El intervalo bayesiano no suele tener una calibración frecuentista fija, pero a menudo se comporta bien.
0 votos
@MichaelLew gracias. He entendido tu segundo comentario, pero el primero sobre que la probabilidad no es un modelo o el modelo me confundió.
0 votos
Consulte esta pregunta y sus respuestas para saber qué son las probabilidades: stats.stackexchange.com/questions/29682/
0 votos
@MichaelLew Sé lo que son las probabilidades, pero tu comentario ha sido demasiado escueto para entenderlo. ¿Dónde he insinuado yo que una probabilidad sea un modelo probabilístico?
0 votos
Bey, escribiste "Dado un modelo a priori, un modelo de probabilidad y los datos"... Los comentarios tienen que ser concisos. Las respuestas pueden ser largas, pero mi intención era hacer un comentario. ¿Necesitas hacer una pregunta diferente?
0 votos
@MichaelLew mi declaración allí estaba señalando las diferentes piezas del modelo bayesiano ... un prior y una probabilidad, además de algunos datos.
0 votos
Bey, el análisis bayesiano tiene en cuenta los datos a través de la función de probabilidad. No se utilizan los datos y la función de probabilidad. Estoy seguro de que hay muchas buenas preguntas y respuestas disponibles que tratan de su (¿aparente?) confusión. Estos comentarios no son el lugar para tratarlas.
0 votos
@MichaelLew nuestra discusión se ha alejado del punto principal de mi post. Creo que estamos diciendo lo mismo respecto a la probabilidad.