10 votos

¿Por qué el error de tipo I no se ve afectado por el diferente tamaño de la muestra - pruebas de hipótesis?

No entiendo por qué la probabilidad de obtener un error de tipo I al realizar una prueba de hipótesis, no se ve afectada. Aumentando $n$ $\Rightarrow$ disminuye la desviación estándar $\Rightarrow$ hacer que la distribución normal tenga más picos en el verdadero $µ$ y el área del límite crítico debería disminuir, pero ¿por qué no es así?

(Publicado de forma cruzada en Intercambio de pilas de matemáticas .)

0 votos

Tú eliges $\alpha$ , así que en principio puede hacer lo que quiera según cambie el tamaño de la muestra... y realmente, si está minimizando el coste total de cometer los dos tipos de error, debería bajar como $n$ se hace grande. No tiene sentido que la gente siga usando $\alpha=0.05$ (o lo que sea) mientras que $\beta$ cae a números cada vez más pequeños cuando se obtienen tamaños de muestra gigantescos.

1 votos

Me parece que me falta algún punto común que los demás ya han entendido. Por lo que entiendo de las respuestas es mi teoría correcta, pero la probabilidad se mantiene aunque no sea el caso ???

0 votos

La distribución límite de la estadística de la prueba no se ve afectada por el tamaño de la muestra, no veo ninguna razón por la que se deba disminuir $\alpha$ . Elección de $\alpha$ puede ser arbitraria. Se puede elegir $\alpha=0.1$ para $n=10^{1000}$ . El corazón del problema en la estadística frecuentista es si la probabilidad de cobertura del nivel $1-\alpha$ conjunto de confianza se acerca a $1-\alpha$ para cualquier $\alpha$ .

16voto

dan90266 Puntos 609

Esta es una pregunta que no se hace con suficiente frecuencia. En la estadística frecuentista tendemos a fijar $\alpha$ por convención. Entonces, como $n\rightarrow\infty$ el error de tipo II $\rightarrow 0$ (es decir, la potencia $\rightarrow 1$ ), aunque también nos permitamos el lujo de grandes $n$ de no permitir tantos falsos positivos si hubiéramos elegido otra cosa. El resultado de esta convención es que cuando $n$ es "grande", se pueden detectar diferencias triviales, y cuando hay muchas hipótesis hay un problema de multiplicidad. Por el contrario, la escuela de inferencia de la probabilidad tiende a tratar el total de los errores de tipo I y de tipo II, y deja que el error de tipo I $\rightarrow 0$ como $n \rightarrow\infty$ . Esto resuelve muchos de los problemas del paradigma frecuentista. Irónicamente, las características de rendimiento frecuentista del método de probabilidad también son bastante buenas.

Véase, por ejemplo http://people.musc.edu/~elg26/SCT2011/SCT2011.Blume.pdf y http://onlinelibrary.wiley.com/doi/10.1002/sim.1216/abstract .

2 votos

Estas son grandes ideas, pero ¿podría elaborar su respuesta un poco más proporcionando algunas referencias? (+1 de todos modos)

1 votos

No estoy seguro de entender la respuesta Es ese el caso o no, lo estoy viendo de manera inferencia..

2 votos

Sí $\alpha$ se mantiene tradicionalmente constante como $n\rightarrow\infty$ pero eso es sólo por convención.

7voto

Parece que no se da cuenta de que la tasa de error de tipo I es también su criterio de corte. Si su criterio de corte no está cambiando, entonces el alfa no está cambiando.

Le site $p$ -El valor es la probabilidad condicional de observar un efecto tan grande o más grande que el encontrado si el valor nulo es verdadero. Si selecciona un valor de corte $p$ -valor de 0,05 para decidir que el nulo no es verdadero entonces ese 0,05 de probabilidad de que fuera verdadero se convierte en su error de Tipo I.

Como nota aparte, esto pone de manifiesto por qué no se puede hacer el mismo examen y establecer un límite para $\beta$ . $\beta$ sólo puede existir si el nulo no era verdadero, mientras que el valor de la prueba calculado supone que lo es.

El punto de Frank Harrell es excelente, ya que depende de su filosofía. Sin embargo, incluso bajo la estadística frecuentista se puede elegir un criterio más bajo por adelantado y, por lo tanto, cambiar la tasa de error de tipo I.

0 votos

Estaba buscando algo como esto.. snag.gy/K8nQd.jpg

0 votos

Ese pasaje resaltado parece contradecir lo que se ha dicho antes, es decir, que se mantiene fijo a lo que se haya establecido, y no disminuye con el aumento del tamaño de la muestra

0 votos

Como le digo a la gente que no se lo cree, haz una simulación. Ver la pregunta marcada como duplicada.

5voto

Aksakal Puntos 11351

Si está utilizando una prueba de hipótesis estándar, entonces está estableciendo el nivel de confianza $\alpha$ y luego comparar el valor p de la prueba con él. En este caso, el tamaño de la muestra no afectará a la probabilidad de error de tipo I porque su nivel de confianza $\alpha$ es la probabilidad de error de tipo I, más o menos por definición . En otras palabras, usted establecer la probabilidad de error de tipo I eligiendo el nivel de confianza.

La probabilidad de error de tipo I sólo se ve afectada por su elección del nivel de confianza y nada más.

0 votos

Sé que usted predetermina lo que $\alpha$ debería ser. Mi pregunta era más bien si el cambio de la n tendría un impacto, que mi libro de texto acaba de confirmar que tiene, lo que también tiene sentido. $alpha$ /El nivel de significación cambia al cambiar el tamaño de la muestra.

0 votos

@xtzx, ¿has mirado el enlace que he dado? Lo explica todo.

0 votos

Pero el hecho de que cambia el std. dev dado por el enlace snag.gy/K8nQd.jpg, que también cambiar la línea de frontera para la región de aceptación, que también afectará a $\alpha$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X