¿Cuáles son la naturaleza y propósito de los intervalos de confianza?
Respuestas
¿Demasiados anuncios?Considerar la distribución normal $N(\mu,\sigma^2)$. Su función de densidad de probabilidad es $x\mapsto\text{constant}\cdot\exp\left(\frac{-1}{2}\cdot\left(\frac{x-\mu}{\sigma}\right)^2\right)$. Tiene valor esperado $\mu$ y la desviación estándar $\sigma$. Se pone de probabilidad acerca de la $0.95$ en el intervalo cuyos extremos son a $\mu\pm1.96\sigma$.
Supongamos que uno no puede observar $\mu$ y una estimación basada en una muestra de $n_1$ independientemente elegido observaciones de una población con esta distribución. Se puede demostrar que la media de la muestra $\bar{X}=(X_1+\cdots+X_{n_1})/n_1$ tiene una distribución normal con media de $\mu$ y la desviación estándar $\sigma/\sqrt{n_1}$.
Por el momento supondremos que, poco realista, que $\sigma$ es conocido.
Tenemos $$ \Pr\left(\mu-1.96\frac{\sigma}{\sqrt{n_1}} < \bar X < \mu+1.96\frac{\sigma}{\sqrt{n_1}}\right) = 0.95 $$ y por lo tanto $$ \Pr\left( \bar X - 1.96\frac{\sigma}{\sqrt{n_1}} <\mu< \bar X + 1.96\frac{\sigma}{\sqrt{n_1}}\right) = 0.95. $$ El intervalo cuyos extremos son $$ \bar X \pm 1.96\frac{\sigma}{\sqrt{n_1}}\etiqueta{1} $$ es una $95\%$ intervalo de confianza para $\mu$.
Es tentador decir que si observamos que los dos números de $\bar X\pm 1.96\dfrac{\sigma}{\sqrt{n_1}}$ son, por ejemplo, $5$$9$, luego $$ \Pr\left(5<\mu<9\right)=0.95.\la etiqueta {¡PELIGRO!!} $$ Pero supongamos que tomamos un segundo ejemplo, esta vez de tamaño $n_2$. Podemos formar otro intervalo de confianza, el uso de la nueva media de la muestra en el papel de $\bar X$ $n_2$ en el papel de $n_1$ $(1)$ por encima. Lo que cambia cuando se toma una nueva muestra es los extremos del intervalo. Lo que no cambia es $\mu$. El $0.95$ de probabilidad significa que $95\%$ del tiempo, cuando se toma otra muestra, $\mu$ estará dentro del intervalo que tenemos. Algunas personas toman esta hecho para ser una objeción a la declaración de la etiqueta "¡PELIGRO!" anteriormente, diciendo que "$\Pr\left(5<\mu<9\right)=0.95$" debe ser considerado un verdadero sólo si es el caso que $95\%$ de todos los valores de $\mu$ entre $5$$9$, y eso es claramente falso, ya que sólo hay un valor de $\mu$. Esto, sin embargo, depende del significado de la probabilidad. Incluso si uno así lo define la probabilidad de que esta objeción no es válida, no obstante las matemáticas de la probabilidad de no llevar a la conclusión de que la declaración de la etiqueta "¡PELIGRO!" es cierto. En la práctica, sin embargo, la gente suele actuar como si uno debe ser $95\%$ seguro de la declaración de $5<\mu<9$, dada la evidencia de la muestra.
Decir que uno es "$95%$ seguro" de que $\mu$ se encuentra dentro del intervalo de confianza, como un término de arte en las estadísticas, significa precisamente eso $95\%$ del tiempo, cuando uno toma una nueva muestra aleatoria de una o más observaciones, el intervalo de uno se contendrá $\mu$.
Era, por supuesto poco realista asumir sabemos que la población de S. D. $\sigma$ pero tenemos que estimar el $\mu$ sobre la base de una muestra. Supongamos que estimamos $\sigma$ basado en la muestra mediante el uso de la raíz cuadrada de $$ S^2 = \frac{1}{n-1}\sum_{i=1}^n \left(X_i-\bar X\right)^2 $$ como la estimación de $\sigma$. Antes hemos dicho que $$ \frac{\bar X-\mu}{\sigma/\sqrt{n}} $$ tiene una distribución normal con media de $0$ y la varianza $1$. La cantidad $$ \frac{\bar X-\mu}{S/\sqrt{n}}\etiqueta{2} $$ también tiene una distribución que no depende de la $\mu$ o $\sigma$. Esta es la distribución t de Student, introducido por el seudónimo de escritor de "el Estudiante", que en realidad era William Sealey Gossett. Así, podemos encontrar $A$ tal que $(2)$ está en el intervalo limitado por $\pm A$ con una probabilidad de $0.95$. Se trata de un mayor número de $1.96$; antes uno veía arriba de una tabla; ahora uno usa el software (que no sólo depende de la "$0.95$", sino también en el tamaño de la muestra $n$). Tenemos $$ \bar X \pm\frac{S}{\sqrt{n}} $$ como los extremos de un intervalo de confianza.
Del mismo modo, uno puede encontrar un intervalo de confianza para $\sigma^2$ al observar que la distribución de $$ \frac{(n-1)S^2}{\sigma^2} $$ no depende de las características no observables $\mu$$\sigma$; este es un chi-cuadrado de distribución. De $$ Un<\frac{(n-1)S^2}{\sigma^2}<B $$ tenemos $$ \frac{B}{(n-1)S^2} < \sigma^2 < \frac{A}{(n-1)S^2} $$ y que es un intervalo de confianza.
Muchos otros ejemplos.
Michael Hardy: no creo que nadie podría dar una mejor descripción de lo que la definición de un intervalo de confianza, por lo que no voy a tratar de dar a uno de los míos. Pero, ¿qué puedo agregar a la conversación es el hecho de que ellos no son únicas y que no siempre son exactos. Hay exactos de los intervalos de confianza y hay asintótica.
Tome el éxito de parámetros para un ensayo de Bernoulli. Si tenemos n iid variables aleatorias de Bernoulli podemos construir un intervalo de confianza exacto mediante el Clopper-Pearson método para la evaluación acumulativa de probabilidades binomiales. También hay normal aproximaciones a la binomial y de manera aproximada los intervalos de confianza se puede construir utilizando aproximados. Cuando el tamaño de la muestra es grande estos aproximado intervalo tendrá cerca a la publicidad de la cobertura. La cobertura es la probabilidad de que si se repite el procedimiento con el nuevo intervalo contendrá el parámetro (ponerlo en Michael Hardy términos).
Ya no puede haber más de un intervalo de confianza para un parámetro basado en una muestra aleatoria, ¿cómo podemos determinar cuál de ellos utilizar. Efron llamadas de los intervalos de confianza exactos si la cobertura real es igual o cercano a la publicidad de la cobertura. La precisión es una propiedad que queremos que cada intervalo de confianza de tener si queremos utilizar. La exacta y asintótica binomio intervalos de confianza son exactos. Un intervalo de confianza sería correcto (plazo, debido a Efron) si entre todos exacta de los intervalos de su duración prevista es el más pequeño.