10 votos

Comprobación de la condición de Lindeberg (Teorema del límite central)

Problema. Deje $W_1, W_2,...$ ser independientes e idénticamente distribuidas variables aleatorias tales que $E(W_1)=0$$\sigma^2 := V(W_1) \in (0,\infty)$. Deje $T_n = \frac{1}{\sqrt{n}} \sum_{j=1}^n a_j W_j$ donde $a_j\neq 0$ todos los $j\in \Bbb{N}$. Si $$\lim_{n\to \infty} \frac{\max_{j=1,...,n}|a_j|}{\sqrt{\sum_{j=1}^na_j^2}}=0,$$ then $$\frac{T_n}{\sqrt{V(T_n)}} \longrightarrow_d N(0,1) \quad\text{(convergence in distribution}).$$

Aquí va mi intento: Si definimos $X_{nj}= \frac{a_j}{\sqrt{n}}W_j$$j=1,...,n$,$T_n=\sum_{j=1}^n X_{nj}$. Así que si podemos comprobar que el Lindeberg condición mantiene para este triangular de la matriz, entonces el teorema del límite central de Lindeberg-Feller implica la afirmación de que $\frac{T_n}{\sqrt{V(T_n)}} \longrightarrow_d N(0,1)$. Para ello, debemos demostrar que para cualquier $\varepsilon>0$ $$\lim_{n\to \infty} \frac{1}{\sigma_n^2} \sum_{j=1}^n E( X_{nj}^2 \cdot \mathbf 1\{ |X_{nj}|\gt \varepsilon \sigma_n \})=0$$ where $\sigma_n^2=\sum_{j=1}^n V(X_{nj}) = \frac{\sigma^2}{n}\sum_{j=1}^n a_j^2$.

No he sido capaz de probar esto y estaría muy agradecido por cualquier ayuda.

9voto

iwriteonbananas Puntos 1583

Considerar alguna variable de aleatoria distribuido como cada $m_n=\max\limits_{j=1}^n|a_j|$ $s_n^2=\sum\limits_{j=1}^na_j^2$, $W$, $W_j$, y simplificamos las cantidades involucradas en la condición de Lindeberg como sigue; $$\begin{align} \sum_{j=1}^nE( X_{nj}^2 \cdot \mathbf 1\{ |X_{nj}|\gt \varepsilon \sigma_n \}) &= \sum_{j=1}^n \frac{a_j^2}{n} E\left( W^2 \cdot \mathbf 1\{ |W|\gt \frac{\varepsilon \sigma_n \sqrt n}{|a_j|} \}\right) \\&\leq\frac{s_n^2}{n}E\left( W^2 \cdot \mathbf 1\{ |W|\gt \frac{\varepsilon \sigma_n \sqrt n}{m_n} \}\right) \\&=\frac{s_n^2}{n}E\left( W^2 \cdot \mathbf 1\{ \frac{|W|}{\sigma}\gt \frac{\varepsilon s_n}{m_n} \}\right) \end {Alinee el} $$ desde $1/\sigma_n^2=n/(\sigma^2 s_n^2)$, esto da $$ \begin{align} \frac{1}{\sigma_n^2} \sum_{j=1}^n E( X_{nj}^2 \cdot \mathbf 1\{ |X_{nj}|\gt \varepsilon \sigma_n \}) &\leq \frac{1}{\sigma^2} E\left( W^2 \cdot \mathbf 1\{ \frac{|W|}{\sigma}\gt \frac{\varepsilon s_n}{m_n} \}\right) \\&= E\left( \frac{W^2}{\sigma^2} \cdot \mathbf 1\{ \frac{|W|}{\sigma}\gt \frac{\varepsilon s_n}{m_n} \}\right) \quad(*) \end{Alinee el} $$ desde $m_n/s_n\to0$ cuando $n\to\infty$, uno sabe casi con certeza, a que $\mathbf 1\{ |W|/\sigma\gt \varepsilon s_n/m_n \}\to0$ cuando $n\to\infty$. Ya que $W$ es cuadrado integrable de Lebesgue Teorema de convergencia dominada, la expresión $(*)$ converge a $0$ $n\to \infty$, QED.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X