Mi comprensión actual de la noción de "intervalo de confianza con nivel de confianza $1 - \alpha$ "es que si intentamos calcular el intervalo de confianza muchas veces (cada vez con una muestra nueva), contendría el parámetro $1 - \alpha$ del tiempo.
Aunque me doy cuenta de que esto no es lo mismo que "la probabilidad de que el parámetro verdadero se encuentre en este intervalo", hay algo que quiero aclarar.
[Actualización importante]
Antes de calcular un intervalo de confianza del 95%, existe una probabilidad del 95% de que el intervalo que calculamos cubra el parámetro verdadero. Después de que hayamos calculado el intervalo de confianza y hayamos obtenido un intervalo determinado $[a,b]$ Ya no podemos decir esto. Ni siquiera podemos hacer una especie de argumento no frecuentista de que estamos 95% seguros de que el verdadero parámetro estará en $[a,b]$ ya que si pudiéramos, se contradeciría con contraejemplos como éste: ¿Qué es exactamente un intervalo de confianza?
No quiero hacer de esto un debate sobre la filosofía de la probabilidad, sino que busco una explicación precisa y matemática del cómo y el porqué de ver el intervalo concreto $[a,b]$ cambia (o no cambia) la probabilidad del 95% que teníamos antes de ver ese intervalo. Si argumentas que "después de ver el intervalo, la noción de probabilidad deja de tener sentido", entonces bien, trabajemos en una interpretación de la probabilidad en la que hace tiene sentido.
Más concretamente:
Supongamos que programamos un ordenador para calcular un intervalo de confianza del 95%. El ordenador hace algunos cálculos, calcula un intervalo y se niega a mostrarme el intervalo hasta que introduzca una contraseña. Antes de introducir la contraseña y ver el intervalo (pero después de que el ordenador lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es del 95%, y esta parte no se puede debatir : esta es la interpretación de la probabilidad que me interesa para esta pregunta en particular (me doy cuenta de que hay cuestiones filosóficas importantes que estoy suprimiendo, y esto es intencional).
Pero en cuanto introduzco la contraseña y hago que el ordenador me muestre el intervalo que ha calculado, la probabilidad (de que el intervalo contenga el parámetro verdadero) podría cambiar. Cualquier afirmación de que esta probabilidad nunca cambia contradiría el contraejemplo anterior. En este contraejemplo, la probabilidad podría cambiar del 50% al 100%, pero...
-
¿Hay algún ejemplo en el que la probabilidad cambie a algo distinto del 100% o del 0% (EDIT: y si es así, cuáles son)?
-
¿Hay algún ejemplo en el que la probabilidad no cambie después de ver el intervalo particular $[a,b]$ (es decir, la probabilidad de que el parámetro verdadero se encuentre en $[a,b]$ sigue siendo del 95%)?
-
¿Cómo (y por qué) cambia la probabilidad en general después de ver que el ordenador escupe $[a,b]$ ?
[Editar]
Gracias por todas las buenas respuestas y los útiles debates.