8 votos

¿Ayuda a entender la diferencia entre los LLN y CLT?

(Lo siento de antemano, no sé de Látex...)

He estado estudiando algunos conceptos básicos de la teoría de la probabilidad recientemente, y estoy teniendo un poco de dificultad en comprender por qué los LLNs y CLT no son contradictorias. Dado IID variables {X1,X2,...}, cada uno con media M y varianza V, ambos LLNs parecen decir que el promedio de los N primeros variables en esta secuencia los enfoques de M como N se acerca a infinito. El CLT parece decir que a medida que N se acerca a infinito, la distribución de este promedio se aproxima a una distribución normal con media M y varianza V.

El problema que estoy teniendo es que parece que la distribución de la media deberían converger a algo como una variable discreta con un PMF como 1 M y 0 en todos los demás. Esto es debido a la fuerte LLN dice que el promedio DEBE ser de M como N se acerca a infinito. En su lugar, la distribución normal dado por la CLT parece decir que hay de la posibilidad de que el promedio de no ser M como N se acerca a infinito, lo que parece contradecir a la fuerte LLN.

Me doy cuenta de que tengo una falla en mi lógica, ya que un montón de gente realmente inteligente se acercó con estos teoremas :P, pero me gustaría saber a donde voy mal. Supongo que tiene algo que ver con las diferencias entre las convergencias de probabilidad, distribución, etc, pero yo no sé mucho acerca de ellos, así que si alguien pudiera explicarlo claramente realmente lo apreciaría.

Gracias!

8voto

Matthew Scouten Puntos 2518

El problema es que dejaste fuera la escala. El promedio converge a una constante: lo que converge a una distribución normal es$$\left(\text{average} - M\right)\sqrt{n}$ $

1voto

Austin Puntos 14

Heres mi 5 centavos.

Teorema del límite Central establece que:

Si tenemos $X_1,X_2,\dots$ iid con una media de $\mu$ y la varianza $\sigma^2$ $$U_n=\frac{1}{\sqrt{n\sigma ^2}} \sum _{i=1}^n (X_i - \mu) \to N(0,1)$$ en la distribución.

Ley de los grandes números establece que:

Si $X_1,X_2,\dots$ son yo.yo.d) con un promedio de $\mu$ $$S_n=\frac{1}{n}\sum_{i=1}^n X_i \to \mu $$ una.s.

Volviendo a la CLT podemos ver también muestra que (desde $\frac{1}{\sqrt n}=\frac{\sqrt n}{\sqrt n \sqrt n}$): $$\sqrt{n}\cdot (\frac{1}{n} \sum _{i=1}^n (X_i - \mu)) \to N(0,\sigma ^2)$$

Así que usted puede ver que CLT "funciona" un poco más lento, que es donde está la diferencia.

La convergencia de una.s. es mucho más fuerte que la convergencia en distribución, por lo que se tenía la escala sido la misma implicaría la convergencia en distribución a un degenerado, que es casi seguramente constante variable aleatoria. En el caso anterior $S_n \to X$ en la distribución donde $P(X=\mu)=1$

Tal vez incluso se puede utilizar ahora CLT decir algo acerca de la rapidez con la LLN convergencia es?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X