2 votos

Problemas para comprender la definición del nivel de significación $\alpha$

Tengo problemas para entender la definición del nivel de significación $\alpha$ . Pensé que sabía lo que $\alpha$ pero me he dado cuenta de que no.

Cuando me propuse estudiar estadística por mi cuenta leí esto libro introductorio y todo estaba bien, la definición es muy clara. Dice en la página 290:

Probablemente se pregunte, ¿cómo de pequeño tiene que ser un valor p para que nosotros para alcanzar la significación estadística? Si estamos de acuerdo en que un valor p de $0.0001$ es claramente significativo desde el punto de vista estadístico y un valor p de $0.50$ no lo es, debe haber algún punto entre $0.0001$ y $0.50$ donde cruzamos el umbral entre la significación estadística y el azar. Ese punto, que mide cuándo algo se vuelve lo bastante raro como para llamarlo "inusual", puede variar mucho de una persona a otra. Deberíamos acordar de antemano un punto de corte razonable. Los estadísticos llaman a este límite el nivel de significación de una prueba y suelen indicarlo con la letra letra griega $\alpha$ (alfa) . Por ejemplo, si $\alpha = 0.05$ decimos que estamos haciendo a $5\%$ y considerará los resultados estadísticamente significativos si el valor de valor p de la muestra es inferior a $0.05$ . A menudo, la mano corta como $P < 0.05$ se utiliza para indicar que el valor p es inferior a que $0.05$ lo que significa que los resultados son significativos a una $5\%$ nivel.

Ahora, estoy estudiando sobre inferencia estadística, un tema más avanzado, y me he dado cuenta de que hay algunos conceptos que no tienen exactamente la misma definición que estudié antes. El nivel de significación es un ejemplo.

Estoy leyendo esto Libro y en la página 352 introduce el Lema de Neyman-Pearson como método para encontrar el Prueba UMP .

Ejemplo:

Sobre la base de una muestra aleatoria de tamaño $1$ del p.d.f. $f(x; \theta)=\theta x^{\theta-1},\ 0 < x < 1\ (\theta > 1)$ :

Para $\theta_1>\theta_0$ el punto de corte se calcula mediante:

... $C=(1\alpha)^{\frac{1}{\theta_0}}$

Para $\theta_1<\theta_0$ tenemos:

... $C = \alpha^{\frac{1}{\theta_0}}$

Así que en este segundo libro, el punto de corte no es necesariamente $\alpha$ Estoy confundido.

MI INTENTO DE ENTENDER CON LA AYUDA DE LAS RESPUESTAS

El alfa está predeterminado, pero eso no significa que no pueda tener una región de rechazo más pequeña. Entonces termino teniendo una región de rechazo más pequeña usando el lema NP con el mismo nivel de significación alfa. Algunos libros introductorios dejan que el punto de corte sea $\alpha$ por norma (¿por qué?), esa es la razón de mi confusión, puedo reducir la región de rechazo manteniendo el valor de $\alpha$ . ¿Puede alguien decir si estoy en lo cierto?

1voto

tommik Puntos 301

En primer lugar, recuerda que se trata de hipótesis simples (ambas simples).

Aplicando el Lemma NP se obtiene que la región crítica es

$$\frac{ \theta_0x^{\theta_0-1} }{ \theta_1x^{\theta_1-1} }\leq k$$

$$x^{\theta_0-\theta_1}\leq k^*$$

Ahora es fácil observar que

  • si $\theta_0>\theta_1$ la región crítica puede considerarse como $x\leq c$ y por tanto, por definición de $\alpha$ obtienes

$$\int_0^c \theta_0x^{\theta_0-1}dx=\alpha\rightarrow c=\alpha^{1/\theta_0}$$

  • si $\theta_0<\theta_1$ con un razonamiento similar (que os he dejado como ejercicio) la región crítica puede verse como $x\geq c$ es decir $c=(1-\alpha)^{1/\theta_0}$

En estas fórmulas $\alpha$ es el nivel de significación dado. Normalmente $5\%$ para una prueba significativa o $1\%$ para una prueba altamente significativa


Definición de $\alpha$

$$\alpha=\mathbb{P}[\mathbf{x}\in C|H_0]$$

Dónde $C$ es la región crítica calculada con NP Lemma


Le sugiero que lea Casella Berger o Mood Graybill Boes que son dos libros de texto de referencia para estos argumentos

1voto

Mouffette Puntos 205

No entiende lo que significa "corte" en el contexto del lema de Neyman-Pearson. Se refiere a un límite de la razón de verosimilitud en la prueba, no como un límite de lo que $p$ -son lo suficientemente pequeños como para ser significativos.


A $p$ -valor (de algunos resultados) representa la probabilidad bajo la hipótesis nula de obtener resultados al menos tan extremos/inusuales como sus resultados actuales. La idea es que ver resultados que son inusuales bajo la hipótesis nula debería ser evidencia para rechazar la hipótesis nula. Para decidir lo pequeño que debe ser un $p$ -es lo suficientemente pequeño como para ser significativo, debe establecer un nivel de significación, por ejemplo $\alpha = 0.05$ ; si su $p$ -es inferior a $\alpha$ , esto indica que sus datos son inusuales bajo la nula, por lo que rechaza la nula.

Comparación de $p$ -valores en contra $\alpha$ garantiza que su error de tipo I es $\le \alpha$ si el nulo es verdadero, la probabilidad de que su prueba sea errónea es $\le \alpha$ . En términos más generales, así es como se debe pensar en los niveles de significación: como error de tipo I (probabilidad de que una prueba rechace el nulo si el nulo es verdadero). Esto es importante para las pruebas de razón de verosimilitud, en las que no hay $p$ -valores calculados en cualquier lugar.


"Corte" en Neyman-Pearson

En este contexto, se está formando una prueba basada en una estadística llamada cociente de probabilidades $\Lambda(x) = \frac{L_1(\theta \mid x)}{L_0(\theta \mid x)}$ . (Estoy siguiendo la convención de su libro de texto de poner el nulo en el denominador).

La prueba es de la forma

rechace $H_0$ si $\Lambda(x) >C$

no rechaces $H_0$ si $\Lambda(x) < C$

para algún límite $C$ . (Ignoro el caso en que el cociente de probabilidades sea igual a $C$ para simplificar). La intuición es que si los datos $x$ parecen apoyar la hipótesis alternativa, el numerador del cociente de probabilidades sería grande, por lo que nos inclinaríamos por rechazarla; del mismo modo, si los datos $x$ parecen apoyar la nula, el denominador sería grande y nos inclinaríamos por no rechazarla. Esto es $C$ es lo que es el "corte" en el ejemplo Neyman-Pearson. Es no un límite para lo que $p$ -son lo suficientemente pequeños como para ser significativos.

¿Cómo elegimos el límite? Si $C$ es grande, entonces se rechaza con menos frecuencia (lo que conduce a un pequeño error de tipo I); si $C$ es pequeño se rechaza más a menudo (lo que conduce a un gran error de tipo I). Si ha establecido un nivel de significación, entonces debe establecer $C$ lo suficientemente grande como para evitar un gran error de tipo I. El ejemplo que está leyendo está resolviendo para el más pequeño $C$ que mantiene el error de tipo I por debajo de $\alpha$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X