12 votos

¿Cuál es la relación entre el $p$ valores y los errores de Tipo I

En la prueba de hipótesis hemos establecido un nivel aceptado de la probabilidad de error de Tipo I $\alpha$ y observar si una muestra estadística es igual de probable o menos probable que se observe si la hipótesis nula de que era cierto. La exacta de la probabilidad de observar un ejemplo de puntuación o más extremas bajo el null es el $p$ del valor. Más en general, rechazamos si $\alpha>p$.

Ahora estoy pensando acerca de lo siguiente. El $p$ valor parece dar una exacta estimación de la probabilidad de que falsamente rechazar una verdadera hipótesis nula (si nos decidimos a hacerlo), que es semejante a la de Tipo I definición de error. Ya sabemos (estimación) la probabilidad de observar la muestra de puntuación (o más valores extremos), $\alpha$ parece ser un valor máximo aceptable de error de Tipo I, mientras que $p$ es exacta. Dicho de otra manera parece dar el mínimo $\alpha$ nivel bajo el cual todavía podemos rechazar la nula.

Es esto correcto?

8voto

AdamSane Puntos 1825

[Supongamos, por el momento, que no estamos hablando de compuesto hipótesis nula, ya que va a simplificar la discusión a palo para el caso más sencillo. Puntos similares pueden hacerse en el caso de compuesto, sino la resultante de discusión adicional sería probablemente menos esclarecedor]

La probabilidad de un error tipo I, que (si los supuestos hold) está dado por $\alpha$ es la probabilidad de acuerdo con la noción de muestreo repetido. Si se recogen los datos muchas veces cuando la nula es verdadera, a la larga, una proporción de $\alpha$ de esas veces que iba a rechazar. En efecto, se dice que la probabilidad de un error Tipo I antes de probar.

El p-valor es específico de la instancia y condicional. No , no digo que la probabilidad de un error tipo I, ya sea antes de la muestra (no se puede decir que, ya que depende de la muestra), o después de:

Si $p\geq\alpha$, entonces la probabilidad de que hizo un error de Tipo I es cero.

Si la nula es verdadera y $p<\alpha$, entonces la probabilidad de que hizo un error de Tipo I es 1.

Echar otro vistazo a las dos cosas en discusión:

  • P(error Tipo I) = P(rechazar H$_0$|% H $_0$ verdadero)

  • p-valor = P(muestra el resultado al menos tan extremo como el observado valor de ejemplo|H$_0$ verdadera, de la muestra)

Son cosas distintas.


De edición Que aparece a partir de los comentarios de que es necesario abordar su segundo párrafo en detalle:

El valor de p, parece dar una exacta estimación de la probabilidad de que falsamente rechazar una hipótesis nula verdadera

No es así, como se discutió anteriormente. (Asumí que esto fue suficiente para que el resto de la cuestión discutible.)

α parece ser un valor máximo aceptable de error de Tipo I,

En efecto, sí (aunque, por supuesto, podemos elegir un menor $\alpha$ que el absoluto de la tasa máxima que estaríamos dispuestos a aceptar por una variedad de razones).

mientras que el p es exacta.

De nuevo, no es así; no es equivalente a $\alpha$ en la propuesta de sentido. Como me sugieren, tanto en el numerador y el denominador en la probabilidad condicional difieren de las de la $\alpha$.

Dicho de otra manera parece dar el mínimo α nivel bajo el cual todavía podemos rechazar la nula.

A pesar de mis anteriores salvedades, existe una relación directa (y no necesariamente particularmente interesante) en qué sentido esto es cierto. Tenga en cuenta que $\alpha$ es elegido antes de la prueba, $p$ se observa después, por lo que es necesario el cambio de nuestra situación habitual.

Si planteamos la siguiente hipótesis:

  • tenemos una colección de hipótesis de los probadores, cada una operando en su propio nivel de significación

  • cada una de ellas es presentada con el mismo conjunto de datos

a continuación, es el caso de que el valor-p es una línea divisoria entre aquellos evaluadores que rechazan y los que aceptan. En ese sentido, el p-valor es el mínimo α nivel bajo que los probadores todavía podría rechazar la nula. Pero en una real situación de prueba, $\alpha$ es fijo, no variable, y la probabilidad de que estamos tratando es de 0 o 1 (en un cierto sentido similar a la forma en que la gente dice "la probabilidad de que el intervalo de confianza incluye el parámetro").

Nuestra probabilidad de declaraciones se refieren a la toma de muestras repetidas; si postulamos una colección de probadores cada uno con sus propios $\alpha$, y considerar sólo un único conjunto de datos para probar uno, no está claro $\alpha$ es la probabilidad de que cualquier cosa en ese escenario - más bien, $\alpha$ representa algo si tuviéramos una colección de los probadores y la toma de muestras repetidas donde el null es cierto - que tendría que ser el rechazo de una proporción $\alpha$ de sus valores nulos a través de muestras, mientras que $p$ representaría algo acerca de cada muestra.

2voto

GenericTypeTea Puntos 27689

Su interpretación parece correcto. La advertencia que me gustaría añadir es que el $\alpha$ es un a priori de la decisión que debe tomarse antes de la realización de una prueba de hipótesis. Así que no es bueno encontrar que el p-valor para el estadístico de prueba es, digamos, 0.00021, y después de informes de que la prueba tenía un $\alpha$ de 0.00021; que harían $\alpha$ y p (falsamente) sinónimos.

2voto

Horst Grünbusch Puntos 2742

El $p$-valor no es "una exacta estimación de la probabilidad de que falsamente rechazar una verdadera hipótesis nula". Esta probabilidad es fijado por la construcción de una $\alpha$-prueba de nivel. Más bien es una estimación de la probabilidad de que otras realizaciones del experimento son más extremas que la realización concreta. Sólo si la presente realización pertenece a la cima $\alpha$ extrema realizaciones, rechazamos la hipótesis nula.

Pero es justo que usted puede imaginar la $p$-valor es el mínimo $\alpha$, de tal manera que , si esto $\alpha$ había sido elegido de esta manera, la prueba sería en la frontera de la importancia de la insignificancia de los datos actuales.

Tal vez una explicación diferente de ayuda: Podemos decir que rechazamos la hipótesis nula, iff los presentes resultados pueden ser mostrados a pertenecer a la extrema $100 \alpha \%$ de los posibles resultados, siempre que la hipótesis nula que sostiene. El $p$-valor indica cómo extrema nuestros resultados son en realidad.

2voto

Estás confundiendo la probabilidad y la $p$ en paralelo dos maneras.

Largo plazo de las probabilidades, como las tasas de error Tipo I, no debe ser pensado como directamente comparables a los de una probabilidad condicional conectados a un solo evento (los datos recogidos). En este caso el segundo es la probabilidad de que los datos con los valores extremos, o más aún, que los datos actuales son producidos por un modelo nulo, $p$. Y, el $p$ es no la probabilidad de que falsamente rechazar la nula.

Imaginar una serie de experimentos en los que el nulo debe ser verdadera (por ejemplo, la comparación de dos monedas de sesgo). Además de imaginar la selección de varios $\alpha$ de los valores previos a la ejecución de los experimentos. No el menor $\alpha$'s resultado en que es menos probable que usted va a hacer el error de Tipo I? Sería el error de Tipo I se verán afectados por el resultado de cualquier experimento?

Creo que esta confusión surge porque estimamos los parámetros de la población, mientras que haciendo pruebas de una muestra. Por lo que la media es una estimación de $\mu$ y la desviación estándar es una estimación de $\sigma$, pero el $p$ no es un parámetro de población. Es simplemente la probabilidad de que los datos actuales o más valores extremos si el efecto fue de 0. Si usted decide que el efecto no es 0, entonces no significa nada.

1voto

heropup Puntos 2278

Cuando uno calcula el $p$-valor, que uno es en realidad el cálculo de una probabilidad condicional en la que la condición se asume que es verdad es que la hipótesis nula. Así que de esta manera, el $p$-valor es en un sentido un cuantificador de la probabilidad de que esperaríamos observar una muestra de al menos tan extremo como el que vimos, suponiendo que la muestra satisface los supuestos de distribución de la hipótesis nula. Esta última parte es muy importante, porque sólo entonces podemos inferir, a partir de la $p$-valor si existe o no existe suficiente evidencia para rechazar la hipótesis nula.

Si te doy una moneda, pero no le dicen nada sobre si es justo, y lanzas $100$ veces y obtener $99$ jefes y $1$ cola, que es muy probable y razonablemente a la conclusión de que la moneda no está en el hecho de feria. La forma de cuantificar esta impresión, como un estadístico, es en primer lugar, supongamos que la moneda es justo y, a continuación, demostrar, a través de la utilización de un binomio proporción de la prueba, que la probabilidad de que usted podría haber llegado a tal extremo, en los que la suposición es increíblemente pequeña, este valor es el $p$-valor de la prueba.

Dicho esto, a pesar de que esa posibilidad es astronómicamente pequeña, todavía no es cero. Hay una muy pequeña posibilidad de que sea equitativa de la moneda, tiró $100$ tiempos, podría darte $99$ jefes y $1$ cola; o $99$ colas y uno en la cabeza; o todos los jefes; o todas las colas, todo debido al azar. Sólo porque un evento es raro no quiere decir que sea imposible. Por lo tanto, cada vez que realizamos un trivial estadístico de prueba, siempre hay alguna posibilidad de error. Sería bastante seguro de que la moneda no es justo, pero puede estar equivocado, y la probabilidad de que usted podría estar equivocado en este sentido es el error de Tipo I.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X