Cómo Construir una Región de Confianza
Vamos a comenzar con un método general para la construcción de regiones de confianza. Se puede aplicar a un único parámetro, para obtener un intervalo de confianza o un conjunto de intervalos; y se puede aplicar a dos o más parámetros, para el rendimiento de dimensiones más elevadas regiones de confianza.
Podemos afirmar que el observado estadísticas de $D$ se originan a partir de una distribución con parámetros de $\theta$, es decir, la distribución de muestreo $s(d|\theta)$ más posible las estadísticas de $d$, y la búsqueda de una región de confianza para $\theta$ en el conjunto de posibles valores de $\Theta$. Definir una Densidad más alta de la Región (HDR): el $h$-HDR de un PDF es el más pequeño subconjunto de su dominio que admite la probabilidad de $h$. Indicar el $h$-HDR de $s(d|\psi)$$H_\psi$, para cualquier $\psi \in \Theta$. A continuación, el $h$ región de confianza para $\theta$, dado los datos de $D$, es el conjunto $C_D = \{ \phi : D \in H_\phi \}$. Un valor típico de $h$ 0.95.
Una Interpretación Frecuentista
De la anterior definición de una región de confianza de la siguiente manera
$$
d \en H_\psi \longleftrightarrow \psi \en C_d
$$
con $C_d = \{ \phi : d \in H_\phi \}$. Ahora imagine un gran conjunto de (imaginario) observaciones $\{D_i\}$, tomada en circunstancias similares a $D$. es decir, son muestras de $s(d|\theta)$. Desde $H_\theta$ apoya la probabilidad de masa $h$ de los PDF $s(d|\theta)$, $P(D_i \in H_\theta) = h$ para todos los $i$. Por lo tanto, la fracción de $\{D_i\}$ que $D_i \in H_\theta$$h$. Y así, utilizando la equivalencia anterior, la fracción de $\{D_i\}$ que $\theta \in C_{D_i}$$h$.
Este, entonces, es lo que el frecuentista reclamo por la $h$ región de confianza para $\theta$ cantidades:
Tomar un gran número de imaginaria observaciones $\{D_i\}$ a partir de la distribución de muestreo $s(d|\theta)$ que dio lugar a la observada estadísticas de $D$. A continuación, $\theta$ se encuentra dentro de una fracción de $h$ de los análogos pero imaginario regiones de confianza $\{C_{D_i}\}$.
La región de confianza $C_D$ por lo tanto no hacer ninguna reclamación sobre la probabilidad de que $\theta$ se encuentra en alguna parte! La razón es simplemente que no hay nada en el fomulation que nos permite hablar de una distribución de probabilidad sobre $\theta$. La interpretación elaborada superestructura, que no mejora la base. La base es sólo $s(d | \theta)$ $D$ donde $\theta$ no aparece como un distribuye la cantidad, y no hay ninguna información que podemos utilizar para referirnos a eso. Básicamente, hay dos maneras de obtener una distribución en $\theta$:
- Asignar una distribución directamente desde la información a la mano: $p(\theta | I)$.
- Se relacionan $\theta$ a otro distribuidos cantidad: $p(\theta | I) = \int p(\theta x | I) dx = \int p(\theta | x I) p(x | I) dx$.
En ambos casos, $\theta$ debe aparecer a la izquierda en algún lugar. Frequentists puede utilizar cualquiera de los métodos, ya que ambos requieren un hereje antes.
Una Vista Bayesiano
La mayoría de un Bayesiano puede hacer de la $h$ región de confianza $C_D$ da sin cualificación, es simplemente la interpretación directa: que es el conjunto de $\phi$ que $D$ cae en la $h$-HDR $H_\phi$ de la distribución de muestreo $s(d|\phi)$. No necesariamente nos dicen mucho acerca de $\theta$, y aquí es por qué.
La probabilidad de que $\theta \in C_D$, determinado $D$ y el fondo de información $I$, es:
\begin{align*}
P(\theta \in C_D | DI) &= \int_{C_D} p(\theta | DI) d\theta \\
&= \int_{C_D} \frac{p(D | \theta I) p(\theta | I)}{p(D | I)} d\theta
\end{align*}
Observe que, a diferencia de la interpretación frecuentista, hemos de inmediato exigió una distribución en $\theta$. La información de antecedentes de $I$ nos dice, como antes, que la distribución de muestreo es $s(d | \theta)$:
\begin{align*}
P(\theta \in C_D | DI) &= \int_{C_D} \frac{s(D | \theta) p(\theta | I)}{p(D | I)} d \theta \\
&= \frac{\int_{C_D} s(D | \theta) p(\theta | I) d\theta}{p(D | I)} \\
\text{i.e.} \quad\quad P(\theta \in C_D | DI) &= \frac{\int_{C_D} s(D | \theta) p(\theta | I) d\theta}{\int s(D | \theta) p(\theta | I) d\theta}
\end{align*}
Ahora, esta expresión no en general evaluar a $h$, es decir, el $h$ región de confianza $C_D$ no siempre contiene $\theta$ con una probabilidad de $h$. En realidad puede ser marcadamente diferente de $h$. Sin embargo, hay muchas situaciones comunes en las que se hace evaluar a $h$, que es la razón por regiones de confianza a menudo son consistentes con nuestras intuiciones probabilísticas.
Por ejemplo, supongamos que el estado de la articulación PDF de $d$ $\theta$ es simétrica en el que $p_{d,\theta}(d,\theta | I) = p_{d,\theta}(\theta,d | I)$. (Claramente esto implica una suposición de que el PDF rangos sobre el mismo dominio en $d$$\theta$.) Entonces, si la anterior es$p(\theta | I) = f(\theta)$,$s(D | \theta) p(\theta | I) = s(D | \theta) f(\theta) = s(\theta | D) f(D)$. Por lo tanto
\begin{align*}
P(\theta \in C_D | DI) &= \frac{\int_{C_D} s(\theta | D) d\theta}{\int s(\theta | D) d\theta} \\
\text{i.e.} \quad\quad P(\theta \in C_D | DI) &= \int_{C_D} s(\theta | D) d\theta
\end{align*}
A partir de la definición de un HDR sabemos que para cualquier $\psi \in \Theta$
\begin{align*}
\int_{H_\psi} s(d | \psi) dd &= h \\
\text{and therefore that} \quad\quad \int_{H_D} s(d | D) dd &= h \\
\text{or equivalently} \quad\quad \int_{H_D} s(\theta | D) d\theta &= h
\end{align*}
Por lo tanto, dado que $s(d | \theta) f(\theta) = s(\theta | d) f(d)$, $C_D = H_D$ implica $P(\theta \in C_D | DI) = h$. El antecedente satisface
$$
C_D = H_D \longleftrightarrow \forall \psi \; [ \psi \en C_D \leftrightarrow \psi \en H_D ]
$$
La aplicación de la equivalencia cerca de la parte superior:
$$
C_D = H_D \longleftrightarrow \forall \psi \; [ D \en H_\psi \leftrightarrow \psi \en H_D ]
$$
Por lo tanto, la región de confianza $C_D$ contiene $\theta$ con una probabilidad de $h$ si para todos los valores posibles $\psi$$\theta$, $h$- HDR de $s(d | \psi)$ contiene $D$ si y sólo si el $h$-HDR de $s(d | D)$ contiene $\psi$.
Ahora la relación simétrica $D \in H_\psi \leftrightarrow \psi \in H_D$ está satisfecho para todos los $\psi$ al $s(\psi + \delta | \psi) = s(D - \delta | D)$ todos los $\delta$ que abarcan el apoyo de $s(d | D)$$s(d | \psi)$. Por lo tanto, podemos formar el siguiente argumento:
- $s(d | \theta) f(\theta) = s(\theta | d) f(d)$ (premisa)
- $\forall \psi \; \forall \delta \; [ s(\psi + \delta | \psi) = s(D - \delta | D) ]$ (premisa)
- $\forall \psi \; \forall \delta \; [ s(\psi + \delta | \psi) = s(D - \delta | D) ] \longrightarrow \forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ]$
- $\therefore \quad \forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ]$
- $\forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ] \longrightarrow C_D = H_D$
- $\therefore \quad C_D = H_D$
- $[s(d | \theta) f(\theta) = s(\theta | d) f(d) \wedge C_D = H_D] \longrightarrow P(\theta \in C_D | DI) = h$
- $\therefore \quad P(\theta \in C_D | DI) = h$
Vamos a aplicar el argumento para un intervalo de confianza de la media de un 1-D de la distribución normal $(\mu, \sigma)$, dada una muestra media de $\bar{x}$ $n$ mediciones. Tenemos $\theta = \mu$$d = \bar{x}$, por lo que la distribución de muestreo es
$$
s(d | \theta) = \frac{\sqrt{n}}{\sigma \sqrt{2 \pi}} e^{-\frac{n}{2 \sigma^2} { \left (\theta \right) }^2 }
$$
Supongamos también que no sabemos nada acerca de $\theta$ antes de tomar los datos (excepto de que es un parámetro de localización) y, por tanto, asignar un uniforme antes: $f(\theta) = k$. Claramente ahora tenemos $s(d | \theta) f(\theta) = s(\theta | d) f(d)$, por lo que la primera premisa es satisfecho. Deje $s(d | \theta) = g\left( (d - \theta)^2 \right)$. (Es decir, puede ser escrito en el formulario.) Entonces
\begin{gather*}
s(\psi + \delta | \psi) = g \left( (\psi + \delta - \psi)^2 \right) = g(\delta^2) \\
\text{and} \quad\quad s(D - \delta | D) = g \left( (D - \delta - D)^2 \right) = g(\delta^2) \\
\text{so that} \quad\quad \forall \psi \; \forall \delta \; [s(\psi + \delta | \psi) = s(D - \delta | D)]
\end{reunir*}
con lo cual la segunda premisa es satisfecho. Ambas premisas de ser verdad, la de ocho punto argumento nos lleva a la conclusión de que la probabilidad de que $\theta$ se encuentra en el intervalo de confianza $C_D$$h$!
Por tanto, tenemos una divertida ironía:
- El frecuentista que asigna el $h$ intervalo de confianza no se puede decir que el $P(\theta \in C_D) = h$, no importa cómo inocentemente uniformes $\theta$ se ve antes de la incorporación de los datos.
- El Bayesiano que no iba a asignar un $h$ intervalo de confianza de esa manera sabe que de todos modos $P(\theta \in C_D | DI) = h$.
Comentarios Finales
Se han identificado las condiciones (es decir, las dos premisas) en virtud de la cual el $h$ región de confianza de hecho el rendimiento de probabilidad $h$ que $\theta \in C_D$. Un frecuentista se resisten a la primera premisa, porque se trata de un previo en $\theta$, y este tipo de deal-breaker es ineludible en la ruta a una probabilidad. Pero para un Bayesiano, es aceptable---nay, esencial. Estas condiciones son suficientes pero no necesarias, por lo que hay muchas otras circunstancias en las que el Bayesiano $P(\theta \in C_D | DI)$ es igual a $h$. Igualmente, sin embargo, hay muchas circunstancias en que $P(\theta \in C_D | DI) \ne h$, especialmente cuando la información previa es importante.
Hemos aplicado un análisis Bayesiano sólo como una constante Bayesiano sería, dada la información a la mano, incluyendo las estadísticas de $D$. Pero un Bayesiano, si él puede, aplicar sus métodos a las primas de las mediciones de lugar---a el $\{x_i\}$, en lugar de $\bar{x}$. A menudo, el colapso de los datos crudos en las estadísticas de resumen de $D$ destruye la información de los datos; y, a continuación, el resumen de las estadísticas son incapaces de hablar así de elocuente como la de los datos originales sobre los parámetros $\theta$.