Parece que no se da cuenta de que la tasa de error de tipo I es también su criterio de corte. Si su criterio de corte no está cambiando, entonces el alfa no está cambiando.
Le site $p$ -El valor es la probabilidad condicional de observar un efecto tan grande o más grande que el encontrado si el valor nulo es verdadero. Si selecciona un valor de corte $p$ -valor de 0,05 para decidir que el nulo no es verdadero entonces ese 0,05 de probabilidad de que fuera verdadero se convierte en su error de Tipo I.
Como nota aparte, esto pone de manifiesto por qué no se puede hacer el mismo examen y establecer un límite para $\beta$ . $\beta$ sólo puede existir si el nulo no era verdadero, mientras que el valor de la prueba calculado supone que lo es.
El punto de Frank Harrell es excelente, ya que depende de su filosofía. Sin embargo, incluso bajo la estadística frecuentista se puede elegir un criterio más bajo por adelantado y, por lo tanto, cambiar la tasa de error de tipo I.
0 votos
Tú eliges $\alpha$ , así que en principio puede hacer lo que quiera según cambie el tamaño de la muestra... y realmente, si está minimizando el coste total de cometer los dos tipos de error, debería bajar como $n$ se hace grande. No tiene sentido que la gente siga usando $\alpha=0.05$ (o lo que sea) mientras que $\beta$ cae a números cada vez más pequeños cuando se obtienen tamaños de muestra gigantescos.
1 votos
Me parece que me falta algún punto común que los demás ya han entendido. Por lo que entiendo de las respuestas es mi teoría correcta, pero la probabilidad se mantiene aunque no sea el caso ???
0 votos
La distribución límite de la estadística de la prueba no se ve afectada por el tamaño de la muestra, no veo ninguna razón por la que se deba disminuir $\alpha$ . Elección de $\alpha$ puede ser arbitraria. Se puede elegir $\alpha=0.1$ para $n=10^{1000}$ . El corazón del problema en la estadística frecuentista es si la probabilidad de cobertura del nivel $1-\alpha$ conjunto de confianza se acerca a $1-\alpha$ para cualquier $\alpha$ .
4 votos
@Khashaa Si no tienes en cuenta la tasa de error de tipo II al elegir $\alpha$ En el caso de que se produzcan errores, se pagará más de lo necesario. Con tamaños de muestra suficientemente grandes, la potencia con un tamaño de efecto determinado que me interese se acercará arbitrariamente a 1 (0,99999...) -- con un tamaño de muestra mucho más pequeño que el que tenemos (es decir, el error de tipo II estará tan cerca de 0 como queramos antes de llegar a la corriente $n$ ). En ese caso, todavía podemos alcanzar ese error de tipo 2 cercano a 0 con un tamaño de muestra mayor y con menos errores de tipo I. No he dicho que uno no pudo elija $\alpha=0.1$ Estaba diciendo que es una mala idea...ctd
0 votos
(ctd) ... A no ser que insistas en cometer muchos más errores de tipo I de los necesarios, supongo.
0 votos
@xtzx En tu escenario, ¿cómo decides qué casos se rechazan? Parece que imaginas una regla de rechazo fija al cambiar $n$ . Pero no es así como funcionan las pruebas de hipótesis: no hay una regla como "rechazar cuando la diferencia de medias es 15" que se aplique a cada tamaño de muestra.
0 votos
@Glen_b no veo realmente cómo eso es relevante... A mí me parece intuitivo que el error de tipo I disminuya al aumentar n, ya que la distribución de muestreo tenderá a alcanzar más la µ verdadera, y las muestras que estén muy por encima o por debajo se producirán menos veces. la hipótesis se rechazará si las muestras se encuentran en la región crítica, lo que ocurrirá menos veces al aumentar n.
2 votos
@Glen_b Estoy de acuerdo contigo. No hay que elegir sólo uno $\alpha$ . No me gusta mucho la idea de "elegir $\alpha$ ". Tiene una connotación extraña, como si $\alpha$ es algún parámetro inherente al modelo. Me interesaría más $1-\alpha$ intervalos de confianza de nivel para el rango de $\alpha$ valores.