El artículo de la Wikipedia en momentos afirma que "cuanto más alto sea el momento, más difícil es estimar, en el sentido de que las grandes muestras que se requieren con el fin de obtener estimaciones de similar calidad". ¿Por qué es esto así? Y ¿qué significa "calidad" significa aquí?
Respuesta
¿Demasiados anuncios?Para responder a su segunda pregunta primero - "calidad" significa "exactitud", y la precisión puede ser definido de muchas maneras, de ahí la falta de precisión matemática en la definición.
Momentos de orden superior son más difíciles de estimar en muchas situaciones, más fácil que en otros. Si la distribución de probabilidad de los datos es que la media es igual a 0 y todos los datos se encuentra en $(-1, 1)$, el mayor de los momentos será más estimado con precisión, ya que en general convergen a cero a medida que el índice de el momento en que se extiende hacia el infinito. La estimación de la 101ª momento de una variable aleatoria que se distribuye uniformemente a lo largo de (-0.5, 0.5) con alta precisión es realmente fácil:
x1 <- x101 <- rep(0, 10000)
for (i in 1:length(x)) {
u <- runif(5)-0.5
x1[i] <- mean(u)
x101[i] <- mean((u-x1[i])^101)
}
> sqrt(mean(x1*x1))
[1] 0.1289411
> sqrt(mean(x101*x101))
[1] 1.880887e-16
El RMSE de la estimación de la media basado en un tamaño de muestra de 5 es $0.129$, dar o tomar un poco de error de muestreo sobre nuestros 10.000 muestras, pero el RMSE de la 101ª momento es $1.9\text{x}10^{-16}$, mucho más pequeñas.
Sin embargo, en los casos donde hay una gran probabilidad de que los valores de algo mayor que 1, la historia cambia. Ahora, porque estamos criando a los grandes valores de la muestra (los $>1$) a los poderes superiores, que se hacen más grandes, en lugar de pequeños. Considere el mismo experimento, pero con el de la variable aleatoria distribuida uniformemente a lo largo de (-5, 5) (omitiendo el trivial de reescritura del código):
> sqrt(mean(x1*x1))
[1] 1.290788
> sqrt(mean(x101*x101))
[1] 4.029381e+85
Usted puede imaginar que va a tomar un MONTÓN de datos para obtener ese $4\text{x}10^{85}$ RMSE para el 101th de energía de aproximadamente la misma precisión de la estimación del primer momento (1.3). Esto es lo que sucede cuando se aumenta el tamaño de la muestra de 5 a 5000:
> sqrt(mean(x101*x101))
[1] 4.596604e+68
Una reducción grande, para estar seguro, pero todavía un largo camino por recorrer.
Como se mencionó anteriormente, la razón de esto es que cuando se calcula la muestra estimaciones de nivel superior momentos (calculando el momento correspondiente de los datos de la muestra), estamos elevando el observado números más y más poderes. Cuando se $>1$, esto los hace más y más grande. En consecuencia, el numerador del momento de cálculo hace más y más grande, por lo que necesita un denominador más grande (que es el tamaño de la muestra) para compensar.
Tenga en cuenta también que si se hacen suposiciones acerca de la distribución de los datos, la Wikipedia declaración no necesita tener. Por ejemplo, si asumimos que los datos se distribuye Normalmente, nuestro "estimado" de todos los momentos impares será igual a 0, independientemente del tamaño de la muestra o cuán grande sea el momento.