20 votos

Cuando el teorema Central del límite y la ley de los grandes números no están de acuerdo

Esta es, esencialmente, una réplica de una pregunta que me he encontrado más en matemáticas.se, que no obtener las respuestas que yo esperaba.

Deje $\{ X_i \}_{i \in \mathbb{N}}$ ser una secuencia de independientes, idénticamente distribuidas variables aleatorias, con $\mathbb{E}[X_i] = 1$$\mathbb{V}[X_i] = 1$.

Considerar la evaluación de

$$ \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right) $$

Esta expresión ha de ser manipulado, ya que, como es, a ambos lados de la desigualdad de eventos tienden a infinito.

A) PRUEBE LA SUSTRACCIÓN

Antes de considerar la limitación de instrucción, restar $\sqrt{n}$ desde ambos lados:

$$\lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i -\sqrt{n} \leq \sqrt{n}-\sqrt{n} \right) = \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n (X_i - 1) \leq 0\right) \\ = \Phi(0) = \frac{1}{2}$$

la última igualdad por la CLT, donde $\Phi()$ es el estándar de la distribución normal de la función.

B) TRATAR DE MULTIPLICACIÓN

Multiplicar ambos lados por $1/\sqrt{n}$ $$\lim_{n \to \infty} \mathbb{P}\left(\frac {1}{\sqrt{n}}\cdot \frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \frac {1}{\sqrt{n}}\cdot\sqrt{n} \right) = \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{n} \sum_{i=1}^n X_i \leq 1\right) $$

$$= \lim_{n \to \infty} \mathbb{P}\left(\bar X_n \leq 1\right) = \lim_{n \to \infty}F_{\bar X_n}(1) = 1$$

donde $F_{\bar X_n}()$ es la función de distribución de la media muestral $\bar X_n$, que por la LLN converge en probabilidad (y así también en la distribución) para la constante de $1$, por lo tanto el último de la igualdad.

Así, obtenemos resultados contradictorios. Cual es el correcto? Y por qué el otro está mal?

16voto

Josh Pearce Puntos 2288

El error aquí es probable que en el siguiente hecho: la convergencia en distribución implícitamente asume que las $F_n(x)$ converge a $F(x)$ a los puntos de continuidad de $F(x)$. Como el límite de distribución es de una constante variable aleatoria, tiene una discontinuidad de salto en $x=1$, por lo tanto es erróneo llegar a la conclusión de que la CDF converge a $F(x)=1$.

12voto

Dilip Sarwate Puntos 16161

Para variables aleatorias iid $X_i$ $E[X_i]= \operatorname{var}(X_i)=1$ definir \begin{align}Z_n &= \frac{1}{\sqrt{n}}\sum_{i=1}^n X_i,\\ Y_n &= \frac{1}{{n}}\sum_{i=1}^n X_i. \end{align} Ahora, el CLT dice que por cada fijos número real $z$, $\lim_{n\to\infty} F_{Z_n}(z) = \Phi(z-1)$. El OP se aplica la CT para evaluar $$\lim_{n\to\infty}P\left(Z_n \leq \frac{1}{\sqrt{n}}\right) = \Phi(0) = \frac 12.$$

Como las otras respuestas, así como varios de los comentarios sobre el OP pregunta ha señalado, es el OP de la evaluación de $\lim_{n\to\infty} P(Y_n \leq 1)$ que es sospechoso. Considere el caso especial cuando el alcoholímetro $X_i$ son discretas variables aleatorias tomando en valores de $0$$2$, con igual probabilidad $\frac 12$. Ahora, $\sum_{i=1}^n X_i$ puede tomar en todo entero par de valores en $[0,2n]$ al $n$ es impar, $\sum_{i=1}^n X_i$ no puede tomar el valor de $n$ y, por tanto, $Y_n = \frac 1n \sum_{i=1}^n X_i$ no puede tomar el valor de $1$. Además, dado que la distribución de $Y_n$ es simétrico con respecto al $1$, tenemos que $P(Y_n \leq 1) = F_{Y_n}(1)$ valor $\frac 12$ siempre $n$ es impar. Por lo tanto, la secuencia de números $$P(Y_1 \leq 1), P(Y_2 \leq 1), \ldots, P(Y_n \leq 1), \ldots$$ contiene la larga $$P(Y_1 \leq 1), P(Y_3 \leq 1), \ldots, P(Y_{2k-1} \leq 1), \ldots$$ en la que todos los términos tienen el valor de $\frac 12$. Por otro lado, la larga $$P(Y_2 \leq 1), P(Y_ 4\leq 1), \ldots, P(Y_{2k} \leq 1), \ldots$$ es la convergencia de a $1$. Por lo tanto, $\lim_{n\to\infty} P(Y_n \leq 1)$ no existe y reclamaciones de la convergencia de $P(Y_n\leq 1)$ a 1 debe ser visto con una gran cantidad de sospecha.

8voto

Aaron Puntos 36

Su primer resultado es el correcto. El error se produce en la segunda parte, en la siguiente declaración errónea:

$$\lim_{n \rightarrow \infty} F_{\bar{X}_n}(1) = 1.$$

Esta declaración es falsa (el lado derecho debe ser $\tfrac{1}{2}$) y de ello no se sigue de la ley de los grandes números , como ha afirmado. La débil ley de los grandes números (que se invoca) dice que:

$$\lim_{n \rightarrow \infty} \mathbb{P} \Big( |\bar{X}_n - 1| \leqslant \varepsilon \Big) = 1 \quad \quad \text{for all } \varepsilon > 0.$$

Para todos los $\varepsilon > 0$ la condición de $|\bar{X}_n - 1| \leqslant \varepsilon$ se extiende por unos valores de $\bar{X}_n \leqslant 1$ y algunos valores de $\bar{X}_n > 1$. Por lo tanto, de ello no se sigue de la LLN que $\lim_{n \rightarrow \infty} \mathbb{P} ( \bar{X}_n \leqslant 1 ) = 1$.

4voto

user164061 Puntos 281

La convergencia en probabilidad implica la convergencia en distribución. Pero... ¿qué distribución? Si la limitación de la distribución tiene una discontinuidad de salto, a continuación, los límites se vuelven ambiguos (porque varios valores son posibles en la discontinuidad).

donde $F_{\bar X_n}()$ es la función de distribución de la media muestral $\bar X_n$, que por la LLN converge en probabilidad (y así también en la distribución) para la constante de $1$,

Esto no es correcto, y también es fácil demostrar que esto no puede ser correcto (diferente de la que el desacuerdo entre la CT y LLN). La limitación de la distribución (que puede ser visto como el límite de una secuencia de variables de distribución normal) debe ser:

$$F_{\bar{X}_\infty}(x) = \begin{cases} 0 & \text{for } x<1 \\ 0.5& \text{for } x=1\\ 1 & \text{for } x>1 \end{casos}$$

para que esta función se tiene que, para cualquier $\epsilon>0$ y cada una de las $x$, la diferencia de $|F_{\bar{X}_n}(x)-F_{\bar{X}_\infty}(x)|<\epsilon$ para suficientemente grande $n$. Esto produciría un error si $F_{\bar{X}_\infty}(1)=1$ en lugar de $F_{\bar{X}_\infty}(1)=0.5$


Límite de una distribución normal

Puede ser útil escribir explícitamente fuera de la suma se utiliza para invocar la ley de los grandes números.

$$\bar{X}_n=\frac{1}{n}\sum_{i=1}^n X_i \sim N(1,\frac{1}{n}) $$

El límite de $n\to \infty$ $\hat{X}_n$ es en realidad equivalente a la función Delta de Dirac cuando es representado como el límite de la distribución normal con la variación que se va a cero.

El uso de esa expresión es más fácil ver lo que está pasando debajo de la campana, en lugar de usar el ready-made leyes de la CLT un LLN que oscurecen el razonamiento detrás de las leyes.


La convergencia en probabilidad

La ley de los grandes números le da "la convergencia en probabilidad'

$$\lim_{n \to \infty} P(|\bar{X}_n-1|>\epsilon) =0 $$

con $\epsilon > 0$

Una declaración equivalente podría ser hecho por el teorema central del límite con $\lim_{n \to \infty} P(|\frac{1}{\sqrt{n}}\sum \left( X_i-1 \right)|>\frac{\epsilon}{n}) =0 $

Es incorrecto afirmar que esto implica $$\lim_{n \to \infty} P(|\bar{X}_n-1|>0) =0 $$

Es menos agradable que esta pregunta se publican de manera temprana (confuso, sin embargo, interesante ver los diferentes debates/enfoques de matemáticas vs estadísticas, por lo que no que muy mal). La respuesta de Michael Hardy en la de matemáticas stackexchange aborda de manera muy efectiva en términos de la fuerte ley de los grandes números (el mismo principio que el aceptado la respuesta de drhab en la cruz publicado pregunta y Dilip aquí). Estamos casi seguros de que una secuencia $\bar{X}_1, \bar{X}_2, \bar{X}_3, ... \bar{X}_n$ converge a 1, pero esto no significa que $\lim_{n \to \infty} P(\bar{X}_n = 1)$ será igual a 1 (o puede incluso no existir como Dilip muestra). Los dados ejemplo en los comentarios por Tomasz muestra esta muy bien desde un ángulo diferente (en lugar de el límite no existe, el límite tiende a cero). La media de una secuencia de tiradas de dados van a converger a la media de los dados, pero la probabilidad de ser igual a este llega a cero.


Función escalón unitario y la función delta de Dirac

La CDF de $\bar{X}_n$ es la siguiente:

$$F_{\bar{X}_n}(x) = \frac{1}{2} \left(1 + \text{erf} \frac{x-1}{\sqrt{2/n}} \right)$$

con, si te gusta, $\lim_{n \to \infty} F_{\bar{X}_n}(1) = 0.5$ (en relación con la función escalón unitario, la integral de la función delta de Dirac cuando se ve como el límite de una distribución normal).


Creo que este punto de vista intuitivamente resuelve su pregunta acerca de la 'demostrar que está equivocado" o al menos eso demuestra que la cuestión acerca de la comprensión de la causa de esta discrepancia de CLT y LLN es equivalente a la cuestión de la comprensión de la integral de la función delta de Dirac o una secuencia de distribuciones normales con varianza disminuye a cero.

2voto

Jeff Bauer Puntos 236

Creo que debe quedar claro que "la CLT enfoque" da la respuesta correcta.

Vamos a precisar exactamente donde el "LLN enfoque" va mal.

Comenzando con el finito de instrucciones, es claro que podemos, equivalentemente, restar $\sqrt{n}$ desde ambos lados, o multliply ambos lados por $1/\sqrt{n}$. Tenemos

$$\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right)=\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n(X_i-1) \leq 0\right) = \mathbb{P}\left(\frac{1}{n} \sum_{i=1}^nX_i \leq 1\right)$$

Así que si el límite existe, será idéntico. Establecimiento $Z_n = \frac{1}{\sqrt{n}} \sum_{i=1}^n(X_i-1)$, utilizando funciones de distribución

$$\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right)= F_{Z_n}(0) = F_{\bar X_n}(1)$$

...y es cierto que $\lim_{n\to \infty}F_{Z_n}(0)= \Phi(0) = 1/2$.

El pensar en la "LLN enfoque" va como sigue: "sabemos de la LLN que $\bar X_n$ converge en probabililty a una constante. Y también sabemos que "la convergencia en probabilidad implica la convergencia en distribución". Por eso, $\bar X_n$ converge en distribución a una constante". Hasta aquí estamos en lo correcto.
Entonces podemos decir: "por lo tanto, limitar las probabilidades de $\bar X_n$ están dadas por la función de distribución de la constante en $1$ variable aleatoria",

$$F_1(x) = \cases {1 \;\;\;\;x\geq 1 \\ 0 \;\;\;\;x<1} \implies F_1(1) = 1$$

... por lo $\lim_{n\to \infty} F_{\bar X_n}(1) = F_1(1) = 1$...

...y acabamos de hacer nuestro error. Por qué? Porque, como @AlexR. respuesta señaló, "la convergencia en distribución" cubre solamente los puntos de continuidad de la limitación de la función de distribución. Y $1$ es un punto de discontinuidad para $F_1$. Esto significa que $\lim_{n\to \infty} F_{\bar X_n}(1)$ puede ser igual a$F_1(1)$, pero puede ser que no, sin negar la "convergencia en distribución a una constante" implicación de la LLN.

Y puesto que a partir de la CLT enfoque sabemos lo que el valor del límite debe de ser de ($1/2$). No conozco una forma de demostrar directamente que $\lim_{n\to \infty} F_{\bar X_n}(1) = 1/2$.

Qué hemos aprendido algo nuevo?

Yo hice. La LLN afirma que

$$\lim_{n \rightarrow \infty} \mathbb{P} \Big( |\bar{X}_n - 1| \leqslant \varepsilon \Big) = 1 \quad \quad \text{for all } \varepsilon > 0$$

$$\implies \lim_{n \rightarrow \infty} \Big[ \mathbb{P} \Big( 1-\varepsilon <\bar{X}_n \leq 1\Big) + \mathbb{P} \Big( 1 <\bar{X}_n \leq 1+\varepsilon\Big)\Big] = 1$$

$$\implies \lim_{n \rightarrow \infty} \Big[ \mathbb{P} \Big(\bar{X}_n \leq 1\Big) + \mathbb{P} \Big( 1 <\bar{X}_n \leq 1+\varepsilon\Big)\Big] = 1$$

La LLN no dice cómo es la probabilidad de que se asignen en el $(1-\varepsilon, 1+\varepsilon)$ intervalo. Lo que he aprendido es que, en esta clase de convergencia de los resultados, la probabilidad está en el límite asignado por igual en los dos lados del punto central de la caída de intervalo.

La declaración general aquí es, asumir

$$X_n\to_p \theta,\;\;\; h(n)(X_n-\theta) \to_d D(0,V)$$

donde $D$ es algo de rv con función de distribución de $F_D$. Entonces

$$\lim_{n\to \infty} \mathbb P[X_n \leq \theta] = \lim_{n\to \infty}\mathbb P[h(n)(X_n-\theta) \leq 0] = F_D(0)$$

...que puede no ser igual a $F_{\theta}(0)$ (la función de distribución de la constante rv).

También, este es un buen ejemplo de que, cuando la función de distribución de la limitante de la variable aleatoria tiene discontinuidades, a continuación, "la convergencia en distribución para una variable aleatoria" puede describir una situación en la que "la limitación de la distribución" puede estar en desacuerdo con la "distribución de la limitante de la variable aleatoria" en los puntos de discontinuidad. Estrictamente hablando, la limitación de la distribución para la continuidad de los puntos es el de la constante de la variable aleatoria. Para los puntos de discontinuidad que puede ser capaz de calcular el límite de la probabilidad, como "independiente" de las entidades.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X