6 votos

Cuando se estima la media de la población es, ¿cómo puede uno la mitad de la media de la muestra tienen un menor riesgo que la media de la muestra a sí mismo?

He leído Efron y Morris (1977) Stein Paradoja en las Estadísticas con el interés de ayer y se tropezó con la declaración de que, si y sólo si la población es cercana a cero, que el riesgo (error cuadrático medio, MSE) de usar la mitad de la media de la muestra como una estimación para la media de población es inferior a la de la media.

Traté de modelo de este (por desgracia en la Bola de Cristal / de Excel, no hizo uso de R para esto), pero no pudo replicar este resultado. En mis ejemplos, el riesgo (como por MSE) de la mitad-de-la-media estimación se convirtió en cerca de la media de la estimación, pero nunca llegó a ser más bajo. Yo podría, evidentemente, no han entendido bien el concepto, pero sería muy interesante si alguien puede mostrar / explicar esto a mí.

3voto

zowens Puntos 1417

Usted realmente no necesita una simulación para ver cómo puede suceder esto: @whuber comentario de esencialmente los clavos.

Imagino que la población es descrito por $\mathcal N(1,10)$, es decir, la media de población es de $\mu=1$ y la desviación estándar es $\sigma=10$. Deje que su tamaño de la muestra se $n=10$. La varianza de la media muestral (MSE) será de alrededor de $\sigma^2/n=10$, por lo que se obtiene los valores de la media de la muestra que están muy lejos de la verdadera media de $\mu=1$. Tomando la mitad de la media de la muestra, se reducirá la varianza cuatro veces, trayendo la estimación mucho más cerca de cero, y, como consecuencia, mucho más cerca de a $\mu=1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X