Modelado
El procedimiento correcto es: (1) modelar la situación como un espacio de probabilidad $\mathcal{S} = (\Omega,\Sigma,P)$ ; (2) definir un evento $E \in \Sigma$ de interés; (3) determinar su probabilidad $P(E)$ . El evento $E$ puede especificarse mediante variables aleatorias, es decir, funciones sobre $\mathcal{S}$ (funciones medibles, es decir, pero no nos preocupemos de esto aquí). El espacio $\mathcal{S}$ puede estar dada implícitamente por una o más variables aleatorias y su distribución conjunta.
El paso (1) puede permitir cierto margen de maniobra. La idoneidad de la modelización puede comprobarse a veces comparando la probabilidad de ciertos eventos con lo que esperaríamos intuitivamente. En particular, observar ciertas probabilidades marginales o condicionales puede ayudar a para hacerse una idea de lo apropiado que es el modelado.
A veces, el modelado o una parte del mismo ya se ha realizado y podemos basarnos en él. En estadística (en cierto punto) normalmente ya se nos dan variables aleatorias de valor real $X_1, \dots, X_n \sim \mathrm{Dist}(\theta)$ i.i.d con una cantidad fija pero desconocida ${\theta \in \mathbb{R}}$ .
Estimación del intervalo de confianza
A estimador del intervalo de confianza (CIE) en el $\gamma$ nivel de confianza es un par de funciones $L$ et $R$ con dominio $\mathbb{R}^n$ tal que $P(L(X) \leq \theta \leq R(X)) \geq \gamma$ , escribiendo $X = (X_1, \dots, X_n)$ . Prefiero la expresión "intervalo de confianza". estimador " para subrayar que lo que cuenta son las funciones y sus propiedades funcionales; $L(X)$ et $R(X)$ son ambas funciones sobre el espacio muestral implícito, es decir, son variables aleatorias. Dada una observación $x \in \mathbb{R}^n$ , hablando de la "probabilidad" de $L(x) \leq \theta \leq R(x)$ no tiene sentido ya que no se trata de un evento porque no contiene ninguna variable aleatoria.
Preferencias
Supongamos que uno puede elegir entre un billete de lotería que ha sido extraído de un conjunto de billetes en el que un $\gamma_1$ fracción consiste en boletos ganadores, y uno que ha sido extraído de un conjunto donde un $\gamma_2$ fracción consiste en boletos ganadores, y supongamos $\gamma_1 < \gamma_2$ . Los dos boletos ya han sido sorteados, pero ninguno de ellos ha sido revelado. Por supuesto, en igualdad de condiciones, preferimos el segundo billete, ya que tenía una mayor probabilidad de ser un boleto ganador que el primero cuando fueron sorteados. Una preferencia con respecto a las diferentes observaciones (los dos boletos en este ejemplo) basada en las propiedades probabilísticas de los procesos aleatorios que generaron las observaciones está bien. Obsérvese que no decimos que ninguno de los boletos tenga una mayor probabilidad de ser un boleto ganador. Si alguna vez lo decimos, entonces con "probabilidad" en un sentido coloquial, que podría significar cualquier cosa, por lo que es mejor evitarlo aquí.
Con CIEs de diferentes niveles de confianza, todo lo demás no suele ser igual, ya que un mayor nivel de confianza hará que los intervalos entregados por el CIE tiendan a ser más amplios. Por tanto, en este caso ni siquiera podemos dar una preferencia; no podemos decir que generalmente prefiramos los intervalos calculados con un CIE que tenga un nivel de confianza más alto. Pero si todo lo demás fuera igual, preferiríamos los intervalos producidos por un CIE que tenga el mayor nivel de confianza disponible. Por ejemplo, si tuviéramos que elegir entre un intervalo que es la salida de un CIE en el $0.95$ nivel de confianza y un intervalo de la misma longitud que ha sido extraído uniformemente al azar de del conjunto de todos los intervalos de esta longitud, sin duda preferimos el primero.
Ejemplo con una prioridad simple
Consideremos un ejemplo en el que se ha ampliado la modelización probabilística para que el parámetro que nos interesa sea una variable aleatoria. Supongamos que $\theta$ es una variable aleatoria discreta con $P(\theta=0) = P(\theta=1) = 1/2$ y que para cada $\vartheta \in \mathbb{R}$ , condicionado al conocimiento de $\theta = \vartheta$ tenemos $X_1, \dots, X_n \sim \mathcal{N}(\vartheta, 1)$ i.i.d. Sea $L,R$ constituyen un CIE (clásico) para la media de la distribución normal en el $\gamma$ nivel de confianza, es decir, para cada $\vartheta \in \mathbb{R}$ tenemos $P(L(X) \leq \vartheta \leq R(X) \vert \theta = \vartheta) \geq \gamma$ , lo que implica ${P(L(X) \leq \theta \leq R(X)) \geq \gamma}$ .
Supongamos que observamos un valor concreto $x \in \mathbb{R}^n$ de la $(X_1, \dots, X_n)$ . Ahora, ¿cuál es la probabilidad de $\theta$ que se encuentra dentro del intervalo especificado por $L(x)$ et $R(x)$ , es decir, lo que es $P(L(x) \leq \theta \leq R(x) \vert X = x)$ ? Denote $f_\mu$ el PDF conjunto de $n$ variables aleatorias independientes, normalmente distribuidas con media $\mu$ y la desviación estándar $\sigma=1$ . Un cálculo utilizando la regla de Bayes y la ley de la probabilidad total muestra: $$P(L(x) \leq \theta \leq R(x) \vert X = x) = \begin{cases} \frac{f_0(x)}{f_0(x) + f_1(x)} & \text{if $L(x) \leq 0 \leq R(x) < 1$} \\ \frac{f_1(x)}{f_0(x) + f_1(x)} & \text{if $0 < L(x) \leq 1 \leq R(x)$} \\ 1 & \text{if $L(x) \leq 0$ and $1 \leq R(x)$} \\ 0 & \text{else} \end{cases}$$ Sorprendentemente, esta probabilidad no tiene nada que ver con el nivel de confianza $\gamma$ en absoluto. Así que incluso si la pregunta para la probabilidad de $\theta$ que está contenida en la salida del CIE tiene sentido, es decir, si $L(X) \leq \theta \leq R(X)$ es un evento en nuestro modelo probabilístico, su probabilidad en general no es $\gamma$ pero puede ser algo completamente diferente.
De hecho, una vez que hemos acordado una prioridad (como la simple distribución discreta de $\theta$ aquí) y tenemos una observación $x$ puede ser más informativo condicionar a $x$ que mirar la salida de un CIE. Precisamente, para $\{\mu_0,\mu_1\} = \{0,1\}$ que tenemos: $$P(\theta = \mu_0 \vert X=x) = \frac{f_{\mu_0}(x)}{f_{\mu_0}(x) + f_{\mu_1}(x)}$$