Los intervalos de confianza dentro de la frecuentista paradigma: estás en lo correcto de que estas afirmaciones (advertencia en contra de la interpretación del intervalo de confianza como un intervalo de probabilidad del parámetro) provienen del hecho de que los intervalos de confianza surgir en la clásica, frecuentista método, y en ese contexto, el parámetro se considera fijo "desconocido constante", no una variable aleatoria. Hay una probabilidad declaración relativa al intervalo de confianza, la cual es:
$$\mathbb{P}(L(\mathbf{X}) \leqslant \mu \leqslant U(\mathbf{X}) \mid \mu) = 1-\alpha,$$
donde $L(\mathbf{X})$ $U(\mathbf{X})$ son límites formado como funciones de los datos de la muestra $\mathbf{X}$ (normalmente, a través de la utilización de reordenamiento de una probabilidad declaración sobre un pivote cantidad). Es importante destacar que, el vector de datos $\mathbf{X}$ es la variable aleatoria en esta probabilidad declaración, y el parámetro de $\mu$ es tratado como un "desconocido constante". (He indicado esta poniendo como un condicionamiento variable, pero dentro de la frecuentista paradigma de que no se especifique este; solo sería ser implícita.) El intervalo de confianza se deriva de esta probabilidad declaración por tomar la observada de la muestra de datos de $\mathbf{x}$ a ceder el intervalo fijo $\text{CI}(1-\alpha) = [ L(\mathbf{x}), U(\mathbf{x}) ]$.
La razón de las afirmaciones que usted está leyendo es que una vez que se reemplace la muestra aleatoria de datos $\mathbf{X}$ con la observada de la muestra de datos de $\mathbf{x}$, ya no podrá realizar la probabilidad de declaración análoga a la anterior. Puesto que los datos y los parámetros son dos constantes, ahora tiene la trivial declaración:
$$\mathbb{P}(L(\mathbf{x}) \leqslant \mu \leqslant U(\mathbf{x})) = \begin{cases} 0 & \text{if } \mu \notin \text{CI}(1-\alpha), \\[6pt] 1 & \text{if } \mu \in \text{CI}(1-\alpha). \end{cases}$$
Los intervalos de confianza dentro del paradigma Bayesiano: Si prefiere interpretar el parámetro desconocido $\mu$ como una variable aleatoria, se están realizando ahora un Bayesiano de tratamiento del problema. Aunque el intervalo de confianza es un procedimiento formulada dentro del paradigma clásico, es posible interpretarlo en el contexto del análisis Bayesiano.
Sin embargo, incluso dentro de un contexto Bayesiano, es que aún no es válido afirmar , a posteriori, que el CI contiene el verdadero parámetro con la probabilidad especificada. De hecho, esta probabilidad posterior depende de la distribución previa para el parámetro. Para ver esto, observamos que:
$$\mathbb{P}(L(\mathbf{x}) \leqslant \mu \leqslant U(\mathbf{x}) \mid \mathbf{x})
= \int \limits_{L(\mathbf{x})}^{U(\mathbf{x})} \pi(\mu | \mathbf{x}) d\mu = \frac{\int_{L(\mathbf{x})}^{U(\mathbf{x})} L_\mathbf{x}(\mu) \pi(\mu)d\mu}{\int L_\mathbf{x}(\mu) \pi(\mu) d\mu}.$$
Esta probabilidad posterior depende de la previa, y en general no es igual a $1-\alpha$ (aunque puede ser en algunos casos especiales). La inicial de la probabilidad de instrucción utilizado en el intervalo de confianza se impone una restricción sobre la distribución de muestreo, lo que restringe la probabilidad de la función, pero todavía nos permite libertad de elegir diferentes priores, produciendo diferentes probabilidades posteriores para la corrección del intervalo.
(Nota: es fácil mostrar que $\mathbb{P}(L(\mathbf{X}) \leqslant \mu \leqslant U(\mathbf{X})) = 1-\alpha$ el uso de la ley-de-total probabilidad, pero este es un previo de probabilidad, no una probabilidad posterior, ya que no en la condición de los datos. Así, dentro del paradigma Bayesiano, podemos decir a priori que el intervalo de confianza contendrá el parámetro con la probabilidad especificada, pero no podemos en general dicen que esta a posteriori.)