15 votos

Una muestra de gran asintótica/teoría - ¿por Qué importa?

Espero que esta pregunta no marcado "como demasiado general" y la esperanza de una discusión se inició en beneficio de todos.

En las estadísticas, nos pasamos un montón de tiempo de aprendizaje de muestras grandes teorías. Estamos profundamente interesados en la evaluación de las propiedades asintóticas de nuestros estimadores incluso si son asintóticamente insesgados, asintóticamente eficiente, su distribución asintótica y así sucesivamente. La palabra asintótica está fuertemente vinculada con la suposición de que $n \rightarrow \infty$.

En realidad, sin embargo, debemos siempre tratar con finito $n$. Mis preguntas son:

1) ¿qué entendemos por grandes de la muestra? ¿Cómo podemos distinguir entre pequeñas y grandes muestras?

2) Cuando nos dice $n \rightarrow \infty$, hacer que, literalmente, significa que $n$ debe ir a $\infty$?

e.x. para la distribución binomial, $\bar{X}$ necesita alrededor de n = 30 la convergencia a la distribución normal bajo CLT. Debemos tener $n \rightarrow \infty$ o en este caso por $\infty$ nos referimos a 30 o más?!

3) Supongamos que tenemos una muestra finita y supongamos que sabemos todo sobre el comportamiento asintótico de nuestros estimadores. Entonces, ¿qué? supongamos que nuestros estimadores son asintóticamente insesgados, entonces, tenemos una estimación insesgada para nuestro parámetro de interés en nuestra muestra finita o significa que si teníamos $n \rightarrow \infty$, entonces tendríamos un imparcial?

Como se puede ver a partir de las preguntas anteriores, estoy tratando de entender la filosofía detrás de la "Muestra de Gran Asymptotics" y a aprender por qué nos preocupamos? Necesito conseguir algunas intuiciones de los teoremas estoy aprendiendo.

Su ayuda es muy apreciada. Gracias.

8voto

Nameless Puntos 933

Mejor tarde que nunca. Permítanme en primer lugar de la lista de tres (que me parece importante) razones por las que nos centramos en asintótica unbiasedness (consistencia) de los estimadores.

a) la Coherencia es un mínimo de criterio. Si un estimador no estimar correctamente incluso con un montón de datos, entonces lo bueno que es? Esta es la justificación dada en Wooldridge: introduccion a la Econometría.

b) muestra Finita propiedades son mucho más difícil de probar (o más bien, asintótica declaraciones son más fáciles). Actualmente estoy haciendo algunas investigaciones mí mismo, y siempre se puede confiar en una amplia muestra de las herramientas, las cosas se ponen mucho más fácil. Leyes de los grandes números, de martingala teoremas de convergencia etc. son buenas herramientas para conseguir asintótica resultados, pero no ayudan con muestras finitas. Creo que algo a lo largo de estas líneas se menciona en Hayashi (2000): Econometría.

c) Si los estimadores son sesgados, para muestras pequeñas, potencialmente se pueden corregir o, al menos, mejorar el de los llamados pequeña muestra de las correcciones. Estos son a menudo complicados teóricamente (para demostrar que mejorar en el estimador sin la corrección). Además, la mayoría de las personas están bien con basarse en grandes muestras, por lo pequeño de la muestra son las correcciones a menudo no se implementó en el estándar de software de estadísticas, debido a que sólo unas pocas personas requieren de ellos (aquellos que no se pueden obtener más datos Y la atención acerca de unbiasedness). Por lo tanto, hay ciertas barreras a la utilización de dichos infrecuente correcciones.

En sus preguntas. ¿Qué queremos decir con "gran ejemplo"? Esto depende en gran medida del contexto y de herramientas específicas que pueden ser respondidas a través de la simulación. Es decir, artificialmente generar datos, y ver cómo, es decir, la tasa de rechazo se comporta como una función del tamaño de la muestra, o el sesgo se comporta como una función del tamaño de la muestra. Un ejemplo específico es aquí, donde los autores ver cómo muchos grupos que tarda MCO agrupado los errores estándar, bloque de bootstraped estándar de errores, etc. para realizar bien. Algunos teóricos también han declaraciones sobre la velocidad de convergencia, pero para fines prácticos las simulaciones parecen ser más informativo.

¿Realmente tener $n\to \infty$? Si eso es lo que la teoría dice que, sí, pero en la aplicación se pueden aceptar pequeña, insignificante tendencia que tenemos con los suficientemente grandes tamaños de muestra con una probabilidad alta. Lo suficientemente significa que depende del contexto, véase más arriba.

En la pregunta 3: por lo general, la cuestión de la unbiasedness (para todos los tamaños de la muestra) y la consistencia (unbiasedness para muestras grandes) se considera por separado. Un estimador puede ser sesgado, pero constante, en cuyo caso, de hecho, sólo la gran muestra las estimaciones son imparciales. Pero también hay estimadores que son insesgados y consistentes, que son teóricamente aplicable para cualquier tamaño de muestra. (Un estimador puede también ser imparcial pero inconsistente por razones técnicas.)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X