16 votos

Desde una perspectiva de probabilidad Bayesiana, ¿por qué ' t un intervalo de confianza del 95% contienen el parámetro verdadero con una probabilidad de 95%?

Desde la página de la Wikipedia sobre los intervalos de confianza:

...si los intervalos de confianza se construyen a través de muchos separado análisis de datos de las repetidas (y posiblemente diferentes), los experimentos, la proporción de los intervalos que contienen el verdadero valor del parámetro que se va a coincidir con el nivel de confianza...

Y desde la misma página:

Un intervalo de confianza ¿ no predecir que el verdadero valor del parámetro tiene una probabilidad de estar en el intervalo de confianza de la vista de los datos obtenidos.

Si he entendido bien, esta última declaración se realiza con la interpretación frecuentista de la probabilidad en la mente. Sin embargo, a partir de una probabilidad Bayesiana perspectiva, ¿por qué no un 95% intervalo de confianza contiene el verdadero parámetro con una probabilidad del 95%? Y si no, lo que está mal con el siguiente razonamiento?

Si tengo un proceso que yo sepa produce una respuesta correcta el 95% del tiempo, entonces la probabilidad de que la siguiente respuesta correcta es de 0,95 (dado que no tengo ninguna información adicional sobre el proceso). Del mismo modo, si alguien me muestra un intervalo de confianza que se crea mediante un proceso que va a contener el verdadero parámetro el 95% del tiempo, debo estar en lo correcto al decir que no contiene el verdadero parámetro con una probabilidad de 0.95, dado lo que yo sé?

Esta pregunta es similar a, pero no es el mismo, ¿por Qué un 95% CI no implica un 95% de probabilidad de que contenga la media? Las respuestas a esta pregunta se han centrado sobre por qué un 95% CI no implica un 95% de posibilidades de que contiene la media de una frecuentista perspectiva. Mi pregunta es la misma, pero a partir de una probabilidad Bayesiana perspectiva.

12voto

Ben Puntos 11

Cómo Construir una Región de Confianza

Vamos a comenzar con un método general para la construcción de regiones de confianza. Se puede aplicar a un único parámetro, para obtener un intervalo de confianza o un conjunto de intervalos; y se puede aplicar a dos o más parámetros, para el rendimiento de dimensiones más elevadas regiones de confianza.

Podemos afirmar que el observado estadísticas de $D$ se originan a partir de una distribución con parámetros de $\theta$, es decir, la distribución de muestreo $s(d|\theta)$ más posible las estadísticas de $d$, y la búsqueda de una región de confianza para $\theta$ en el conjunto de posibles valores de $\Theta$. Definir una Densidad más alta de la Región (HDR): el $h$-HDR de un PDF es el más pequeño subconjunto de su dominio que admite la probabilidad de $h$. Indicar el $h$-HDR de $s(d|\psi)$$H_\psi$, para cualquier $\psi \in \Theta$. A continuación, el $h$ región de confianza para $\theta$, dado los datos de $D$, es el conjunto $C_D = \{ \phi : D \in H_\phi \}$. Un valor típico de $h$ 0.95.

Una Interpretación Frecuentista

De la anterior definición de una región de confianza de la siguiente manera $$ d \en H_\psi \longleftrightarrow \psi \en C_d $$ con $C_d = \{ \phi : d \in H_\phi \}$. Ahora imagine un gran conjunto de (imaginario) observaciones $\{D_i\}$, tomada en circunstancias similares a $D$. es decir, son muestras de $s(d|\theta)$. Desde $H_\theta$ apoya la probabilidad de masa $h$ de los PDF $s(d|\theta)$, $P(D_i \in H_\theta) = h$ para todos los $i$. Por lo tanto, la fracción de $\{D_i\}$ que $D_i \in H_\theta$$h$. Y así, utilizando la equivalencia anterior, la fracción de $\{D_i\}$ que $\theta \in C_{D_i}$$h$.

Este, entonces, es lo que el frecuentista reclamo por la $h$ región de confianza para $\theta$ cantidades:

Tomar un gran número de imaginaria observaciones $\{D_i\}$ a partir de la distribución de muestreo $s(d|\theta)$ que dio lugar a la observada estadísticas de $D$. A continuación, $\theta$ se encuentra dentro de una fracción de $h$ de los análogos pero imaginario regiones de confianza $\{C_{D_i}\}$.

La región de confianza $C_D$ por lo tanto no hacer ninguna reclamación sobre la probabilidad de que $\theta$ se encuentra en alguna parte! La razón es simplemente que no hay nada en el fomulation que nos permite hablar de una distribución de probabilidad sobre $\theta$. La interpretación elaborada superestructura, que no mejora la base. La base es sólo $s(d | \theta)$ $D$ donde $\theta$ no aparece como un distribuye la cantidad, y no hay ninguna información que podemos utilizar para referirnos a eso. Básicamente, hay dos maneras de obtener una distribución en $\theta$:

  1. Asignar una distribución directamente desde la información a la mano: $p(\theta | I)$.
  2. Se relacionan $\theta$ a otro distribuidos cantidad: $p(\theta | I) = \int p(\theta x | I) dx = \int p(\theta | x I) p(x | I) dx$.

En ambos casos, $\theta$ debe aparecer a la izquierda en algún lugar. Frequentists puede utilizar cualquiera de los métodos, ya que ambos requieren un hereje antes.

Una Vista Bayesiano

La mayoría de un Bayesiano puede hacer de la $h$ región de confianza $C_D$ da sin cualificación, es simplemente la interpretación directa: que es el conjunto de $\phi$ que $D$ cae en la $h$-HDR $H_\phi$ de la distribución de muestreo $s(d|\phi)$. No necesariamente nos dicen mucho acerca de $\theta$, y aquí es por qué.

La probabilidad de que $\theta \in C_D$, determinado $D$ y el fondo de información $I$, es: \begin{align*} P(\theta \in C_D | DI) &= \int_{C_D} p(\theta | DI) d\theta \\ &= \int_{C_D} \frac{p(D | \theta I) p(\theta | I)}{p(D | I)} d\theta \end{align*} Observe que, a diferencia de la interpretación frecuentista, hemos de inmediato exigió una distribución en $\theta$. La información de antecedentes de $I$ nos dice, como antes, que la distribución de muestreo es $s(d | \theta)$: \begin{align*} P(\theta \in C_D | DI) &= \int_{C_D} \frac{s(D | \theta) p(\theta | I)}{p(D | I)} d \theta \\ &= \frac{\int_{C_D} s(D | \theta) p(\theta | I) d\theta}{p(D | I)} \\ \text{i.e.} \quad\quad P(\theta \in C_D | DI) &= \frac{\int_{C_D} s(D | \theta) p(\theta | I) d\theta}{\int s(D | \theta) p(\theta | I) d\theta} \end{align*} Ahora, esta expresión no en general evaluar a $h$, es decir, el $h$ región de confianza $C_D$ no siempre contiene $\theta$ con una probabilidad de $h$. En realidad puede ser marcadamente diferente de $h$. Sin embargo, hay muchas situaciones comunes en las que se hace evaluar a $h$, que es la razón por regiones de confianza a menudo son consistentes con nuestras intuiciones probabilísticas.

Por ejemplo, supongamos que el estado de la articulación PDF de $d$ $\theta$ es simétrica en el que $p_{d,\theta}(d,\theta | I) = p_{d,\theta}(\theta,d | I)$. (Claramente esto implica una suposición de que el PDF rangos sobre el mismo dominio en $d$$\theta$.) Entonces, si la anterior es$p(\theta | I) = f(\theta)$,$s(D | \theta) p(\theta | I) = s(D | \theta) f(\theta) = s(\theta | D) f(D)$. Por lo tanto \begin{align*} P(\theta \in C_D | DI) &= \frac{\int_{C_D} s(\theta | D) d\theta}{\int s(\theta | D) d\theta} \\ \text{i.e.} \quad\quad P(\theta \in C_D | DI) &= \int_{C_D} s(\theta | D) d\theta \end{align*} A partir de la definición de un HDR sabemos que para cualquier $\psi \in \Theta$ \begin{align*} \int_{H_\psi} s(d | \psi) dd &= h \\ \text{and therefore that} \quad\quad \int_{H_D} s(d | D) dd &= h \\ \text{or equivalently} \quad\quad \int_{H_D} s(\theta | D) d\theta &= h \end{align*} Por lo tanto, dado que $s(d | \theta) f(\theta) = s(\theta | d) f(d)$, $C_D = H_D$ implica $P(\theta \in C_D | DI) = h$. El antecedente satisface $$ C_D = H_D \longleftrightarrow \forall \psi \; [ \psi \en C_D \leftrightarrow \psi \en H_D ] $$ La aplicación de la equivalencia cerca de la parte superior: $$ C_D = H_D \longleftrightarrow \forall \psi \; [ D \en H_\psi \leftrightarrow \psi \en H_D ] $$ Por lo tanto, la región de confianza $C_D$ contiene $\theta$ con una probabilidad de $h$ si para todos los valores posibles $\psi$$\theta$, $h$- HDR de $s(d | \psi)$ contiene $D$ si y sólo si el $h$-HDR de $s(d | D)$ contiene $\psi$.

Ahora la relación simétrica $D \in H_\psi \leftrightarrow \psi \in H_D$ está satisfecho para todos los $\psi$ al $s(\psi + \delta | \psi) = s(D - \delta | D)$ todos los $\delta$ que abarcan el apoyo de $s(d | D)$$s(d | \psi)$. Por lo tanto, podemos formar el siguiente argumento:

  1. $s(d | \theta) f(\theta) = s(\theta | d) f(d)$ (premisa)
  2. $\forall \psi \; \forall \delta \; [ s(\psi + \delta | \psi) = s(D - \delta | D) ]$ (premisa)
  3. $\forall \psi \; \forall \delta \; [ s(\psi + \delta | \psi) = s(D - \delta | D) ] \longrightarrow \forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ]$
  4. $\therefore \quad \forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ]$
  5. $\forall \psi \; [ D \in H_\psi \leftrightarrow \psi \in H_D ] \longrightarrow C_D = H_D$
  6. $\therefore \quad C_D = H_D$
  7. $[s(d | \theta) f(\theta) = s(\theta | d) f(d) \wedge C_D = H_D] \longrightarrow P(\theta \in C_D | DI) = h$
  8. $\therefore \quad P(\theta \in C_D | DI) = h$

Vamos a aplicar el argumento para un intervalo de confianza de la media de un 1-D de la distribución normal $(\mu, \sigma)$, dada una muestra media de $\bar{x}$ $n$ mediciones. Tenemos $\theta = \mu$$d = \bar{x}$, por lo que la distribución de muestreo es $$ s(d | \theta) = \frac{\sqrt{n}}{\sigma \sqrt{2 \pi}} e^{-\frac{n}{2 \sigma^2} { \left (\theta \right) }^2 } $$ Supongamos también que no sabemos nada acerca de $\theta$ antes de tomar los datos (excepto de que es un parámetro de localización) y, por tanto, asignar un uniforme antes: $f(\theta) = k$. Claramente ahora tenemos $s(d | \theta) f(\theta) = s(\theta | d) f(d)$, por lo que la primera premisa es satisfecho. Deje $s(d | \theta) = g\left( (d - \theta)^2 \right)$. (Es decir, puede ser escrito en el formulario.) Entonces \begin{gather*} s(\psi + \delta | \psi) = g \left( (\psi + \delta - \psi)^2 \right) = g(\delta^2) \\ \text{and} \quad\quad s(D - \delta | D) = g \left( (D - \delta - D)^2 \right) = g(\delta^2) \\ \text{so that} \quad\quad \forall \psi \; \forall \delta \; [s(\psi + \delta | \psi) = s(D - \delta | D)] \end{reunir*} con lo cual la segunda premisa es satisfecho. Ambas premisas de ser verdad, la de ocho punto argumento nos lleva a la conclusión de que la probabilidad de que $\theta$ se encuentra en el intervalo de confianza $C_D$$h$!

Por tanto, tenemos una divertida ironía:

  1. El frecuentista que asigna el $h$ intervalo de confianza no se puede decir que el $P(\theta \in C_D) = h$, no importa cómo inocentemente uniformes $\theta$ se ve antes de la incorporación de los datos.
  2. El Bayesiano que no iba a asignar un $h$ intervalo de confianza de esa manera sabe que de todos modos $P(\theta \in C_D | DI) = h$.

Comentarios Finales

Se han identificado las condiciones (es decir, las dos premisas) en virtud de la cual el $h$ región de confianza de hecho el rendimiento de probabilidad $h$ que $\theta \in C_D$. Un frecuentista se resisten a la primera premisa, porque se trata de un previo en $\theta$, y este tipo de deal-breaker es ineludible en la ruta a una probabilidad. Pero para un Bayesiano, es aceptable---nay, esencial. Estas condiciones son suficientes pero no necesarias, por lo que hay muchas otras circunstancias en las que el Bayesiano $P(\theta \in C_D | DI)$ es igual a $h$. Igualmente, sin embargo, hay muchas circunstancias en que $P(\theta \in C_D | DI) \ne h$, especialmente cuando la información previa es importante.

Hemos aplicado un análisis Bayesiano sólo como una constante Bayesiano sería, dada la información a la mano, incluyendo las estadísticas de $D$. Pero un Bayesiano, si él puede, aplicar sus métodos a las primas de las mediciones de lugar---a el $\{x_i\}$, en lugar de $\bar{x}$. A menudo, el colapso de los datos crudos en las estadísticas de resumen de $D$ destruye la información de los datos; y, a continuación, el resumen de las estadísticas son incapaces de hablar así de elocuente como la de los datos originales sobre los parámetros $\theta$.

6voto

tylerharms Puntos 79

a partir de una probabilidad Bayesiana perspectiva, ¿por qué no un 95% intervalo de confianza contiene el verdadero parámetro con una probabilidad del 95%?

Dos respuestas, la primera es menos útil que el segundo

  1. No hay intervalos de confianza en estadística Bayesiana, así que la pregunta no le pertenecen.

  2. En la estadística Bayesiana, sin embargo, hay intervalos de credibilidad, que juegan un papel similar al de los intervalos de confianza. Si la vista de los priores y posteriores en la estadística Bayesiana como la cuantificación de la razonable creencia de que un parámetro toma en ciertos valores, entonces la respuesta a tu pregunta es sí, una de credibilidad de 95% intervalo representa un intervalo en el que un parámetro se cree que se encuentran con un 95% de probabilidad.

Si tengo un proceso que yo sepa produce una respuesta correcta el 95% del tiempo, entonces la probabilidad de que la siguiente respuesta correcta es de 0,95 (dado que no tengo ninguna información adicional sobre el proceso).

sí, el proceso adivina una respuesta correcta con un 95% de probabilidad

Del mismo modo, si alguien me muestra un intervalo de confianza que se crea mediante un proceso que va a contener el verdadero parámetro el 95% del tiempo, debo estar en lo correcto al decir que no contiene el verdadero parámetro con una probabilidad de 0.95, dado lo que yo sé?

De la misma manera como su proceso, el intervalo de confianza adivina la respuesta correcta con un 95% de probabilidad. Estamos de vuelta en el mundo de la estadística clásica aquí: antes de reunir los datos se puede decir que hay un 95% de probabilidad de que se reunieron al azar de los datos de la determinación de los límites del intervalo de confianza tal que la media se encuentra dentro de los límites.

Con su proceso, después de que haya llegado a su respuesta, no se puede decir basado en lo que su suposición era, que la verdadera respuesta es la misma que la de adivinar con un 95% de probabilidad. La conjetura es correcta o incorrecta.

Y de la misma como de su proceso, en el intervalo de confianza del caso, después de haber conseguido los datos y tener un límite inferior y superior, la media se encuentra dentro de los límites o no lo es, es decir, la probabilidad de que la media de estar dentro de esos límites es 1 o 0. (De haber rozado la pregunta que se refiere parece que esto es cubierto en mucho más detalle.)

Cómo interpretar un intervalo de confianza dado a usted si usted se suscribe a un Bayesiano de vista de la probabilidad.

Hay un par de maneras de ver esto

  1. Técnicamente, el intervalo de confianza no se ha producido mediante un previo y el teorema de Bayes, así que si usted tenía antes de su creencia sobre el parámetro de que se trate, no habría manera de que usted podría interpretar el intervalo de confianza en el marco Bayesiano.

  2. Otro ampliamente utilizado y respetado interpretación de los intervalos de confianza es que proporcionan una "plausible" rango de valores para el parámetro (véase, por ejemplo, aquí). Esta de-hace hincapié en la "repetición de experimentos" de interpretación.

Además, bajo ciertas circunstancias, especialmente cuando el prior es poco informativo (no le dice nada, por ejemplo, plano), los intervalos de confianza pueden producir exactamente el mismo intervalo de tiempo como un intervalo creíble. En estas circunstancias, como un Bayesianist se podría argumentar que había tomado el Bayesiano ruta se habría conseguido exactamente los mismos resultados y que podría interpretar el intervalo de confianza de la misma manera como un intervalo creíble.

3voto

patfla Puntos 1

Te voy a dar un ejemplo extremo, donde ellos son diferentes.

Supongamos que puedo crear mi 95% intervalo de confianza para un parámetro de $\theta $ como sigue. Inicio mediante el muestreo de los datos. A continuación, generar un número aleatorio entre el$0 $$1 $. Llame a este número $ u $. Si $ u $ es de menos de $0.95 $, a continuación, devolver el intervalo de $(-\infty,\infty) $. De lo contrario, devuelve "null" intervalo.

Ahora por la continuación de repeticiones, el 95% de la Cei será "todos los números" y, por tanto, contener el verdadero valor. El otro 5% no contienen ningún valor, por lo tanto tienen cero de cobertura. En general, este es un inútil, pero técnicamente correcto IC del 95%.

El Bayesiano creíble intervalo será de 100% o 0%. No 95%.

2voto

Josh Puntos 53

"a partir de una probabilidad Bayesiana perspectiva, ¿por qué no un 95% intervalo de confianza contiene el verdadero parámetro con una probabilidad del 95%? "

En la Estadística Bayesiana el parámetro no es un valor desconocido, se trata de una Distribución. No hay ningún intervalo que contiene el "verdadero valor", por un Bayesiano punto de vista no tiene sentido. El parámetro es una variable aleatoria, que perfectamente puede conocer la probabilidad de que un valor de entre x_inf un x_max si sabe el distribuition. Es sólo otra forma de pensar acerca de los parámetros, generalmente Bayesians utiliza la mediana o el promedio del valor de la distribuition del parámetro como una "estimación". No hay un intervalo de confianza en Estadística Bayesiana, algo similar se llama intervalo de credibilidad.

Ahora, a partir de un frequencist punto de vista, el parámetro es un "Valor Fijo", no una variable aleatoria, realmente se puede obtener la probabilidad del intervalo (95%) ? Recuerda que es un valor fijo, no una variable aleatoria con una distribución conocida. Es por eso que más allá del texto :"Un intervalo de confianza no predice que el verdadero valor del parámetro tiene una probabilidad de estar en el intervalo de confianza de la vista de los datos obtenidos."

La idea de repetir la experiencia una y otra... no es el razonamiento Bayesiano es un Frequencist uno. Imaginar un real experimento que sólo se puede hacer una vez en su tiempo de vida, se puede/debe generó que el intervalo de confianza (desde el clásico punto de vista )?.

Pero... en la vida real los resultados podrían llegar bastante cerca ( Bayesiano vs Frequencist), quizás por eso podría ser confuso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X