50 votos

¿Aclaración sobre la interpretación de los intervalos de confianza?

Mi comprensión actual de la noción de "intervalo de confianza con nivel de confianza $1 - \alpha$ "es que si intentamos calcular el intervalo de confianza muchas veces (cada vez con una muestra nueva), contendría el parámetro $1 - \alpha$ del tiempo.

Aunque me doy cuenta de que esto no es lo mismo que "la probabilidad de que el parámetro verdadero se encuentre en este intervalo", hay algo que quiero aclarar.

[Actualización importante]

Antes de calcular un intervalo de confianza del 95%, existe una probabilidad del 95% de que el intervalo que calculamos cubra el parámetro verdadero. Después de que hayamos calculado el intervalo de confianza y hayamos obtenido un intervalo determinado $[a,b]$ Ya no podemos decir esto. Ni siquiera podemos hacer una especie de argumento no frecuentista de que estamos 95% seguros de que el verdadero parámetro estará en $[a,b]$ ya que si pudiéramos, se contradeciría con contraejemplos como éste: ¿Qué es exactamente un intervalo de confianza?

No quiero hacer de esto un debate sobre la filosofía de la probabilidad, sino que busco una explicación precisa y matemática del cómo y el porqué de ver el intervalo concreto $[a,b]$ cambia (o no cambia) la probabilidad del 95% que teníamos antes de ver ese intervalo. Si argumentas que "después de ver el intervalo, la noción de probabilidad deja de tener sentido", entonces bien, trabajemos en una interpretación de la probabilidad en la que hace tiene sentido.

Más concretamente:

Supongamos que programamos un ordenador para calcular un intervalo de confianza del 95%. El ordenador hace algunos cálculos, calcula un intervalo y se niega a mostrarme el intervalo hasta que introduzca una contraseña. Antes de introducir la contraseña y ver el intervalo (pero después de que el ordenador lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es del 95%, y esta parte no se puede debatir : esta es la interpretación de la probabilidad que me interesa para esta pregunta en particular (me doy cuenta de que hay cuestiones filosóficas importantes que estoy suprimiendo, y esto es intencional).

Pero en cuanto introduzco la contraseña y hago que el ordenador me muestre el intervalo que ha calculado, la probabilidad (de que el intervalo contenga el parámetro verdadero) podría cambiar. Cualquier afirmación de que esta probabilidad nunca cambia contradiría el contraejemplo anterior. En este contraejemplo, la probabilidad podría cambiar del 50% al 100%, pero...

  • ¿Hay algún ejemplo en el que la probabilidad cambie a algo distinto del 100% o del 0% (EDIT: y si es así, cuáles son)?

  • ¿Hay algún ejemplo en el que la probabilidad no cambie después de ver el intervalo particular $[a,b]$ (es decir, la probabilidad de que el parámetro verdadero se encuentre en $[a,b]$ sigue siendo del 95%)?

  • ¿Cómo (y por qué) cambia la probabilidad en general después de ver que el ordenador escupe $[a,b]$ ?

[Editar]

Gracias por todas las buenas respuestas y los útiles debates.

1voto

jgauffin Puntos 54

Si digo que la probabilidad de que los Knicks hayan anotado entre xbar - 2sd(x) y xbar + 2sd(x) es de alrededor de 0,95 en algún partido del pasado, es una afirmación razonable dada alguna suposición distributiva particular sobre la distribución de los resultados del baloncesto. Si reúno datos sobre las puntuaciones de alguna muestra de partidos y calculo ese intervalo, la probabilidad de que hayan anotado en ese intervalo en algún día determinado del pasado es claramente cero o uno, y se puede buscar en Google el resultado del partido para averiguarlo. La única noción de que mantiene una probabilidad distinta de cero o uno para los frecuentistas proviene del muestreo repetido, y la realización de la estimación del intervalo de una muestra concreta es el punto mágico en el que ocurrió o no ocurrió dada la estimación del intervalo de esa muestra. No es el punto en el que se teclea la contraseña, es el punto en el que se decide tomar una única muestra en el que se pierde la continuidad de las probabilidades posibles.

Esto es lo que argumenta Dikran más arriba, y he votado su respuesta. El punto en el que las muestras repetidas están fuera de consideración es el punto en el paradigma frecuentista en el que la probabilidad no discreta se vuelve inalcanzable No cuando escribes la contraseña como en tu ejemplo, o cuando buscas en Google el resultado en mi ejemplo del partido de los Knicks, sino en el momento en que tu número de muestras =1.

1voto

eSurfsnake Puntos 56

Dos observaciones sobre las numerosas preguntas y respuestas que pueden ayudar todavía.

Parte de la confusión se debe a que se han pasado por alto algunos aspectos matemáticos más profundos de la teoría de la probabilidad, que, por cierto, no tuvo una base matemática firme hasta la década de 1940. Se trata de lo que constituyen los espacios muestrales, los espacios de probabilidad, etc.

En primer lugar, has afirmado que después de lanzar una moneda sabemos que hay un 0% de probabilidad de que no haya salido cruz si ha salido cara. En ese momento no tiene sentido hablar de probabilidad; lo que ha ocurrido ha ocurrido, y lo sabemos. La probabilidad se refiere a lo desconocido en el futuro, no a lo conocido en el presente.

Como pequeño corolario de lo que significa realmente la probabilidad cero, considere lo siguiente: suponemos que una cuenta justa tiene una probabilidad de 0,5 de salir cara y 0,5 de salir cruz. Esto significa que tiene un 100% de probabilidades de salir cara o colas, ya que esos resultados son MECE (mutuamente excluyentes y completamente exhaustivos). Sin embargo, tiene un cambio de cero por ciento, de comp cara y cruz : Nuestra noción de "cara" y "cruz" es que se excluyen mutuamente. Por lo tanto, esto tiene cero por ciento de probabilidad porque es imposible en la forma en que pensamos (o definimos) "lanzar una moneda". Y es imposible antes y después del lanzamiento.

Como corolario de esto, todo lo que no es, por definición, imposible es posible . En el mundo real, odio cuando los abogados preguntan "¿no es posible que haya firmado este documento y se haya olvidado de él?" porque la respuesta es siempre "sí" por la naturaleza de la pregunta. En este sentido, la respuesta también es "sí" a la pregunta "¿no es posible que haya sido transportado a través de la desmaterialización al planeta Remulak 4 y obligado a hacer algo y luego transportado de vuelta sin recordar nada?". La probabilidad puede ser muy baja, pero lo que no es imposible es posible. En nuestro concepto habitual de probabilidad, cuando hablamos de lanzar una moneda, puede salir cara; puede salir cruz; e incluso puede quedarse parada o (de alguna manera, como si nos colaran en una nave espacial mientras estamos drogados y nos pusieran en órbita) flotar en el aire para siempre. Pero, antes o después del lanzamiento, la probabilidad de que salga cara es nula. et colas al mismo tiempo: son resultados mutuamente excluyentes en el espacio muestral del experimento (busque "espacios muestrales de probabilidad" y "álgebras sigma").

En segundo lugar, sobre toda esta filosofía bayesiana/frecuentista sobre los intervalos de confianza, es cierto que se relaciona con las frecuencias si uno actúa como frecuentista. Así, cuando decimos que el intervalo de confianza para una media muestreada y estimada es del 95%, no estamos diciendo que estemos seguros al 95% de que el valor "real" se encuentra entre los límites. Estamos diciendo que, si pudiéramos repetir este experimento una y otra vez, el 95% de las veces encontraríamos que la media está, efectivamente, entre los límites. Sin embargo, cuando lo hacemos con una sola pasada, estamos tomando un atajo mental y diciendo "estamos seguros en un 95% de que tenemos razón".

Por último, no olvides cuál es la configuración estándar de una prueba de hipótesis basada en un experimento. Si queremos saber si una hormona de crecimiento vegetal hace que las plantas crezcan más rápido, quizá determinemos primero el tamaño medio de un tomate tras 6 meses de crecimiento. Luego repetimos, pero con la hormona, y obtenemos el tamaño medio. Nuestra hipótesis nula es "la hormona no funciona", y probamos que . Pero, si las plantas analizadas son, de media, más grandes, con un 99% de confianza, eso significa que "siempre habrá una variación aleatoria debida a las plantas y a la precisión con la que las pesamos, pero la cantidad de aleatoriedad que explicaría esto ocurriría menos de una vez entre cien".

0voto

TauEpsilonChi Puntos 31

Modelado

El procedimiento correcto es: (1) modelar la situación como un espacio de probabilidad $\mathcal{S} = (\Omega,\Sigma,P)$ ; (2) definir un evento $E \in \Sigma$ de interés; (3) determinar su probabilidad $P(E)$ . El evento $E$ puede especificarse mediante variables aleatorias, es decir, funciones sobre $\mathcal{S}$ (funciones medibles, es decir, pero no nos preocupemos de esto aquí). El espacio $\mathcal{S}$ puede estar dada implícitamente por una o más variables aleatorias y su distribución conjunta.

El paso (1) puede permitir cierto margen de maniobra. La idoneidad de la modelización puede comprobarse a veces comparando la probabilidad de ciertos eventos con lo que esperaríamos intuitivamente. En particular, observar ciertas probabilidades marginales o condicionales puede ayudar a para hacerse una idea de lo apropiado que es el modelado.

A veces, el modelado o una parte del mismo ya se ha realizado y podemos basarnos en él. En estadística (en cierto punto) normalmente ya se nos dan variables aleatorias de valor real $X_1, \dots, X_n \sim \mathrm{Dist}(\theta)$ i.i.d con una cantidad fija pero desconocida ${\theta \in \mathbb{R}}$ .

Estimación del intervalo de confianza

A estimador del intervalo de confianza (CIE) en el $\gamma$ nivel de confianza es un par de funciones $L$ et $R$ con dominio $\mathbb{R}^n$ tal que $P(L(X) \leq \theta \leq R(X)) \geq \gamma$ , escribiendo $X = (X_1, \dots, X_n)$ . Prefiero la expresión "intervalo de confianza". estimador " para subrayar que lo que cuenta son las funciones y sus propiedades funcionales; $L(X)$ et $R(X)$ son ambas funciones sobre el espacio muestral implícito, es decir, son variables aleatorias. Dada una observación $x \in \mathbb{R}^n$ , hablando de la "probabilidad" de $L(x) \leq \theta \leq R(x)$ no tiene sentido ya que no se trata de un evento porque no contiene ninguna variable aleatoria.

Preferencias

Supongamos que uno puede elegir entre un billete de lotería que ha sido extraído de un conjunto de billetes en el que un $\gamma_1$ fracción consiste en boletos ganadores, y uno que ha sido extraído de un conjunto donde un $\gamma_2$ fracción consiste en boletos ganadores, y supongamos $\gamma_1 < \gamma_2$ . Los dos boletos ya han sido sorteados, pero ninguno de ellos ha sido revelado. Por supuesto, en igualdad de condiciones, preferimos el segundo billete, ya que tenía una mayor probabilidad de ser un boleto ganador que el primero cuando fueron sorteados. Una preferencia con respecto a las diferentes observaciones (los dos boletos en este ejemplo) basada en las propiedades probabilísticas de los procesos aleatorios que generaron las observaciones está bien. Obsérvese que no decimos que ninguno de los boletos tenga una mayor probabilidad de ser un boleto ganador. Si alguna vez lo decimos, entonces con "probabilidad" en un sentido coloquial, que podría significar cualquier cosa, por lo que es mejor evitarlo aquí.

Con CIEs de diferentes niveles de confianza, todo lo demás no suele ser igual, ya que un mayor nivel de confianza hará que los intervalos entregados por el CIE tiendan a ser más amplios. Por tanto, en este caso ni siquiera podemos dar una preferencia; no podemos decir que generalmente prefiramos los intervalos calculados con un CIE que tenga un nivel de confianza más alto. Pero si todo lo demás fuera igual, preferiríamos los intervalos producidos por un CIE que tenga el mayor nivel de confianza disponible. Por ejemplo, si tuviéramos que elegir entre un intervalo que es la salida de un CIE en el $0.95$ nivel de confianza y un intervalo de la misma longitud que ha sido extraído uniformemente al azar de del conjunto de todos los intervalos de esta longitud, sin duda preferimos el primero.

Ejemplo con una prioridad simple

Consideremos un ejemplo en el que se ha ampliado la modelización probabilística para que el parámetro que nos interesa sea una variable aleatoria. Supongamos que $\theta$ es una variable aleatoria discreta con $P(\theta=0) = P(\theta=1) = 1/2$ y que para cada $\vartheta \in \mathbb{R}$ , condicionado al conocimiento de $\theta = \vartheta$ tenemos $X_1, \dots, X_n \sim \mathcal{N}(\vartheta, 1)$ i.i.d. Sea $L,R$ constituyen un CIE (clásico) para la media de la distribución normal en el $\gamma$ nivel de confianza, es decir, para cada $\vartheta \in \mathbb{R}$ tenemos $P(L(X) \leq \vartheta \leq R(X) \vert \theta = \vartheta) \geq \gamma$ , lo que implica ${P(L(X) \leq \theta \leq R(X)) \geq \gamma}$ .

Supongamos que observamos un valor concreto $x \in \mathbb{R}^n$ de la $(X_1, \dots, X_n)$ . Ahora, ¿cuál es la probabilidad de $\theta$ que se encuentra dentro del intervalo especificado por $L(x)$ et $R(x)$ , es decir, lo que es $P(L(x) \leq \theta \leq R(x) \vert X = x)$ ? Denote $f_\mu$ el PDF conjunto de $n$ variables aleatorias independientes, normalmente distribuidas con media $\mu$ y la desviación estándar $\sigma=1$ . Un cálculo utilizando la regla de Bayes y la ley de la probabilidad total muestra: $$P(L(x) \leq \theta \leq R(x) \vert X = x) = \begin{cases} \frac{f_0(x)}{f_0(x) + f_1(x)} & \text{if $L(x) \leq 0 \leq R(x) < 1$} \\ \frac{f_1(x)}{f_0(x) + f_1(x)} & \text{if $0 < L(x) \leq 1 \leq R(x)$} \\ 1 & \text{if $L(x) \leq 0$ and $1 \leq R(x)$} \\ 0 & \text{else} \end{cases}$$ Sorprendentemente, esta probabilidad no tiene nada que ver con el nivel de confianza $\gamma$ en absoluto. Así que incluso si la pregunta para la probabilidad de $\theta$ que está contenida en la salida del CIE tiene sentido, es decir, si $L(X) \leq \theta \leq R(X)$ es un evento en nuestro modelo probabilístico, su probabilidad en general no es $\gamma$ pero puede ser algo completamente diferente.

De hecho, una vez que hemos acordado una prioridad (como la simple distribución discreta de $\theta$ aquí) y tenemos una observación $x$ puede ser más informativo condicionar a $x$ que mirar la salida de un CIE. Precisamente, para $\{\mu_0,\mu_1\} = \{0,1\}$ que tenemos: $$P(\theta = \mu_0 \vert X=x) = \frac{f_{\mu_0}(x)}{f_{\mu_0}(x) + f_{\mu_1}(x)}$$

0voto

Đøharrrck Puntos 1

Si pudiéramos decir "la probabilidad de que el parámetro verdadero se encuentre en este intervalo de confianza", no tendríamos en cuenta el tamaño de la muestra. No importa lo grande que sea la muestra, mientras la media sea la misma, el intervalo de confianza será igualmente amplio. Pero cuando decimos "si repito esto 100 veces, entonces espero que en el 95 de los casos el parámetro verdadero se encuentre dentro del intervalo", estamos teniendo en cuenta el tamaño de la muestra, y la seguridad de nuestra estimación. Cuanto mayor sea el tamaño de la muestra, menos varianza tendrá la estimación media. Por lo tanto, no variará mucho, y cuando repitamos el procedimiento 100 veces, no necesitaremos un intervalo grande para asegurarnos de que en el 95 de los casos el parámetro verdadero esté en el intervalo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X