7 votos

¿Cómo puedo demostrar que para cualquier $a > 0$, $\lim_{n\to \infty}P \left(\sum_{i=1}^n X_i^2\leq a\right)=0$

Deje $X_1,X_2,\cdots ,X_j \cdots $ ser yo.yo.d. $\mathcal N(0, 1)$ variables aleatorias. Mostrar que para cualquier $a > 0$, $$\lim_{n\to \infty}P\left( \sum_{i=1}^n X_i^2\leq a\right)=0$$ Está claro que $\sum_{i=1}^n X_i^2 \sim \chi ^2_n$; entonces, yo no puedo continuar. Por favor, ayudar.

13voto

giulio Puntos 166

El declaró resultado tiene nada que ver con la distribución normal y es completamente general. También puede ser demostrado el uso de sólo la mayoría de las propiedades básicas de las funciones de distribución acumulativa. En particular, es necesario apelar a la (relativamente) "alta potencia" teoremas como la Ley de los Grandes Números.

La proposición: Vamos a $X_i \sim F$ ser iid con cualquier otra distribución de $\delta_0$, un punto-masa en cero. A continuación, para cada una de las $a \geq 0$, $$ \lim_{n\to\infty} \mathbb P\left(\sum_{i=1}^n X_i^2 \leq\right) = 0 \>. $$

Definir $Y_i = X_i^2$ e indicar la distribución de $Y_i$$G$. Si $F$ es de infinito apoyo, entonces también lo es $G$. En este caso, todo es totalmente sencillo, una vez tenemos el siguiente lema.

Lema: Si $Y_i \geq 0$ son iid, a continuación,$\mathbb P(\sum_{i=1}^n Y_i \leq a) \leq G^n(a)$.
Prueba: $\{Y_1 + Y_2 + \dots + Y_n \leq a\} \subset \{Y_1 \leq a, Y_2 \leq a, \ldots, Y_n \leq a\}$. Por lo tanto, $$ \mathbb P\left( \sum_{i=1}^n Y_i \leq\right) \leq G^n(a). $$ En palabras, si la suma de $n$ términos no negativos es menor que $a$, entonces todos los términos deben ser menos de $a$. El alcoholímetro de la propiedad de la $Y_i$ variables se invoca luego de obtener el resultado.

Ahora, si $G$ es de infinito apoyo, a continuación, $G(a) < 1$ todos los $a \geq 0$, pero, a continuación,$G^n(a) \to 0$, por lo que la invocación de la lema, hemos terminado.

Se extiende para el caso de los acotados de apoyo no es mucho más difícil. Supongamos que existe $B > 0$ tal que $G(a) = 1$ todos los $a \geq B$$G(a) < 1$$a < B$. En el caso de que $a < B$ ya está manejado por el argumento anterior. Para $a > B$, no es un fijo $N := N(a) = [1+(a/B)]$ tal que $$ G_N(a) := \mathbb P\left(\sum_{i=1}^N Y_i \leq\right) < 1 \>. $$ (Por qué?)

Pero, entonces esto reduce al caso anterior ya que
$(G_N(a))^m \to 0$ $m \to \infty$ considerando las sumas por encima de los bloques de tamaño $N$.

NB La intuición en el delimitada caso es que una vez que añadir una cantidad suficiente de términos, con el apoyo de la distribución de la suma eventualmente alcanzar, y superar, $a$. Una vez que esto sucede, nos encontramos que en el caso anterior.

Epílogo El caso específico de la distribución normal cae bajo la categoría de $F$ (por lo tanto, $G$) con unbounded de apoyo. Así, sólo tenemos la primera parte de la respuesta (que no requiere el cálculo de ningún tipo) para establecer el resultado en la cuestión de la declaración.

3voto

Definir $Y_n = \sum_{i=1} X_n^2$. Como usted ha mencionado, $Y_n$ se distribuye según chi-cuadrado con la densidad:

$$p(y) = C(n)x^{n/2-1}e^{-x/2}$$

donde $C(n)$ es cierta normalización constante (que se define sólo por $y \ge 0$).

La probabilidad de $Y_n$ siendo mayor que $a$ es (como una función de la $n$):

$$\int_0^a C(n) x^{n/2-1} e^{-x/2}$$

donde $C(n) = 2^{n/2} \Gamma(n/2)$.

Esto es estrictamente menor que $$\int_0^a C(n) x^{n/2-1} = C(n) \frac{2}{n} a^{n/2}$$ debido a $e^{-z} < 1$$z > 0$.

Esto significa que tenemos que mostrar que

$$D(n) = \frac{2}{n 2^{n/2} \Gamma(n/2)} a^{n/2} \le \frac{d^n}{\Gamma(n/2)}$$

llega a 0 $n$ va al infinito y $d = \sqrt{a/2}$.

A continuación, $\Gamma(n/2)$ siempre es mayor que $\Gamma(m/2)$ donde $m$ es $n$ si $n$ es par o $n-1$ si $n$ es impar (es decir, $m$ es siempre un número par menor que $n$).

Por lo tanto, $\Gamma(n/2) \le \Gamma(m/2) = (m/2-1)!$.

Así, obtenemos

$$D(n) \le \frac{d^n}{(m/2-1)!}$$

que va claramente a 0 a la velocidad de la luz.

2voto

mat_geek Puntos 1367

Tomamos nota de que, desde cada una de las $X_i$ tiene media 0 y varianza 1, $(\sum_i X_i^2)/n$ converge a 1.s.

Pero si $$ \lim_{n\to\infty} \mathbb P\Big( \sum_i X_i^2 < \Big) > 0 \,, $$ con probabilidad positiva $$ \frac{1}{n}\sum_i X_i^2 $$ goes to 0, which is a contradiction because if the sum have a positive probability of staying finite then dividing by n we have $(\sum_i X_i^2)/n$ convergente a 0 con probabilidad positiva de contradecir la convergencia a 1 casi seguramente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X