17 votos

¿Por qué no utilizar la distribución T para calcular la media cuando la muestra es grande?

Estadísticas básicas de los cursos a menudo sugieren el uso de una distribución normal para calcular la media de un parámetro de población cuando el tamaño de la muestra n es grande (normalmente más de 30 o 50). Distribución T de Student se utiliza para los pequeños tamaños de muestra para dar cuenta de la incertidumbre en la desviación estándar de la muestra. Cuando el tamaño de la muestra es grande, la desviación estándar de la muestra da una buena información sobre la desviación estándar de población, lo que permite una normal distribución de la estimación. Yo entiendo eso.

Pero ¿por qué usar una estimación de cuando se puede obtener el intervalo de confianza exactamente? Independientemente del tamaño de la muestra, ¿cuál es el punto de uso de la distribución normal, si es sólo una estimación de algo que se puede conseguir exactamente con la distribución T?

15voto

AdamSane Puntos 1825

Pero ¿por qué usar una estimación de cuando se puede obtener el intervalo de confianza exactamente?

Es una buena pregunta (siempre que no se haga demasiado insistente en 'exactamente', dado que los supuestos para que sea exactamente t-distribuidos en realidad no espera).

"Usted debe utilizar la distribución t de la tabla cuando los problemas de trabajo cuando la desviación estándar de población (σ) no se conoce el tamaño de la muestra es pequeña (n<30)"

¿Por qué la gente no utiliza la distribución T de todos a la hora de la desviación estándar de población no es conocida (incluso cuando n>30)?

Considero que el consejo como - en el mejor de los potencialmente engañosa. En algunas situaciones, la distribución t todavía debe ser utilizado cuando los grados de libertad son mucho más que eso.

Cuando la normal es una aproximación razonable depende de una variedad de cosas (y por lo tanto depende de la situación). Sin embargo, desde entonces (con equipos) no es en absoluto difícil de usar sólo el $t$, incluso si la d.f. son muy grandes, habría que preguntarse por qué la necesidad de preocuparse por hacer algo diferente en n=30.

Si los tamaños de muestra son realmente grandes, no hará una diferencia notable para un intervalo de confianza, pero no creo que n=30 es siempre lo suficientemente cerca de 'muy grande'.


Hay una circunstancia en la que podría tener sentido para el uso normal en lugar de la $t$ - que es cuando los datos claramente que no cumplen las condiciones para obtener una distribución t, pero todavía se puede argumentar por el valor aproximado de la normalidad (si $n$ es bastante grande).

9voto

Brandon Grossutti Puntos 140

Es un anacronismo histórico. Hay muchos de ellos en las estadísticas.

Si no tienes un ordenador, era difícil de usar la distribución t y mucho más fácil utilizar una distribución normal. Una vez que crece el tamaño de la muestra, dos distribuciones llegan a ser similares (qué grande es 'grande' es otra cuestión).

1voto

user53211 Puntos 11

Porque en cualquiera de los casos (utilizando la distribución normal o la distribución t), de distribución acumulativa de los valores se derivan de forma numérica (no hay forma cerrada para la integral de $e^{-x^2}$ , o la integral de la t-densidad). La función de distribución acumulativa de la distribución t con n grados de libertad tiende a la CDF de una normal estándar como $n \rightarrow \infty $. Si n es grande, el error numérico en la aproximación de la integral es menor que el error cometido por la sustitución de la t-de la densidad la densidad normal.
En otras palabras, la "exacta" t-valor no es "exacto", y dentro de la aproximación de error, el valor es el mismo que el CDF valor de la normal estándar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X