3 votos

Variables aleatorias independientes con expectativa infinita y teorema del límite central

Estoy tratando de construir una secuencia de variables aleatorias independientes $X_1, X_2, \ldots$ con $\mathbb E[|X_n|] = \infty$ para cada $n$ y para el que tenemos $S_n^* := \frac{X_1 + \cdots + X_n}{\sqrt n}$ converge en distribución a la distribución normal estándar con densidad $e^{-x^2/2}/\sqrt{2\pi}$ .

La demostración del Teorema Central del Límite con la que estoy más familiarizado implica tomar las funciones características $\varphi_{S_n^* }(t)$ de $S_n^* $ mostrando que convergen puntualmente a $e^{-t^2/2}$ como $n \to \infty$ y utilizando el Teorema de Continuidad de Lévy para demostrar que las distribuciones de $S_n^* $ convergen débilmente a la distribución normal estándar $\mathcal N_{0,1}$ . La única forma que conozco de hacerlo implica utilizar la expansión de Taylor de $\varphi_{S_n^* }$ que requiere que $\mathbb E[|X_n|] <\infty$ para todos $n$ . (Más concretamente, la expansión de Taylor requiere que $\varphi_{S_n^* }(t)$ sea al menos dos veces diferenciable, lo que equivale a $\mathbb E[|S_n^* |^2]<\infty$ que no tenemos si $\mathbb E[|X_n|] = \infty$ para todos $n$ ).

Las otras ideas que he probado han consistido en (a) tomar una distribución de la forma $\mathbb P_{X_n} = \sum_{k \in \mathbb Z} p_{n,k} \delta_k^* $ donde $p_{n,k} = \mathbb P[X_n = k]$ y $\delta_k$ es la masa de Dirac en $k \in \mathbb Z$ o (b) tomando $X_n$ con una densidad continua $f_n$ con respecto a la medida de Lebesgue. En ambos casos, queremos $\mathbb E[|X_n|] = \infty$ . Sabemos que $\varphi_{S_n^* }(t) = \prod_{i = 1}^n \varphi_{X_i}(t/\sqrt{n})$ por la independencia. En el caso discreto (a), $$ \varphi_{X_i}(t) = \sum_{k \in \mathbb Z} p_{i,k} \cos(kt), $$ y en el caso continuo (b), $$ \varphi_{X_i}(t) = \int_{\mathbb R} \cos(xt) f_i(x) dx. $$ En ambos casos no estoy seguro de cómo encontrar una buena expresión para $\prod_i\varphi_{X_i}(t/\sqrt{n})$ y utilizando una aproximación de Taylor para $\varphi_{X_i}$ es esencialmente imposible si $\mathbb E[|X_i|] = \infty$ para todos $i$ .

¿Alguna sugerencia sobre cómo proceder?

4voto

JGWang Puntos 46

El siguiente es un ejemplo de secuencia $ \{X_n,n\ge 1 \} $ de variables aleatorias independientes con $ \mathsf{E}[|X_n|]=\infty $ y $ S_n^\ast := \frac{X_1+\cdots+X_n}{\sqrt{n}} \overset{d}{\to} N(0,1) $ .

Supongamos que $ \{\xi_n,n\ge1\} $ es una secuencia de variables aleatorias i.i.d. y $ \xi_n\overset{d}{=} U(-1,1) $ . Denotemos \begin{align*} X_n&=\sqrt{3}\xi_n + \frac{1_{\{|\xi_n|\le n^{-2}\}}}{|\xi_n|}. \\ &=\sqrt{3}\xi_n +Z_n. \tag{1} \end{align*} Entonces \begin{gather*} \mathsf{E}[|Z_n|]=\infty, \quad \mathsf{E}[|X_n|]=\infty,\\ \frac{1}{\sqrt{n}}\sum_{j=1}^n\sqrt{3}\xi_j\overset{d}{\to} N(0,1). \tag{2} \end{gather*} Debido a $ \sum\limits_{n\ge 1}\mathsf{P}(Z_n\ne0)<\infty $ , \begin{gather*} \sum_{n=1}^{\infty}Z_n <\infty,\qquad \text{a.s.}.\\ \frac{1}{\sqrt{n}}\sum_{j=1}^n Z_j\to 0, \qquad \text{a.s.}.\tag{3} \end{gather*} De (1)-(3) obtenemos \begin{equation*} \frac{1}{\sqrt{n}}\sum_{j=1}^n X_j \overset{d}{\to} N(0,1). \end{equation*}

2voto

PhoemueX Puntos 19354

Sea $Y_1,Y_2,\dots$ y $N_1,N_2,\dots$ sean variables aleatorias independientes conjuntamente con $N_i \sim N(0,1)$ . Supongamos también que la distribución de $Y_i$ es tal que $\mathbb{E}[|Y_i|] = \infty$ pero $\mathbb{P}(Y_i \neq 0) \leq 2^{-i}$ (Dejaré la existencia de tales $Y_i$ a usted). Por último, establezca $X_i := Y_i + N_i$ . Es fácil ver que el $X_i$ son independientes y satisfacen $\mathbb{E}|X_i| = \infty$ .

Ahora, por el Lema de Borel Cantelli ya que $\sum_i \mathbb{P}(Y_i \neq 0) < \infty$ , lo vemos casi seguro, $Y_i \neq 0$ sólo es válida para un número finito de $i$ . Esto implica fácilmente que $\overline{Y}_n := n^{-1/2} (Y_1 + \dots + Y_n)$ satisface $\overline{Y_n} \to 0$ casi seguro (¿por qué?).

Ahora, dejemos que $N \sim N(0,1)$ . Para demostrar que $\overline{X}_n := n^{-1/2} (X_1+\dots+X_n)$ satisface $\overline{X}_n \to N(0,1)$ en la distribución, basta con demostrar para toda función Lipschitz acotada $g$ que $\mathbb{E}[g(\overline{X_n})] \to \mathbb{E}[g(N)]$ . Para demostrarlo, obsérvese en primer lugar que $\overline{N}_n := n^{-1/2} (N_1 + \dots + N_n)$ satisface $\overline{N}_n \sim N$ . A continuación, observe que $$ |g(\overline{N}_n) - g(\overline{X}_n)| \leq \min \{ 2 C, L \cdot |\overline{N}_n - \overline{X}_n| \} = \min \{ 2 C, L \cdot |\overline{Y}_n| \} \to 0 $$ como $n \to \infty$ donde $L$ es la constante de Lipschitz de $g$ y $|g(x)| \leq C$ para todos $x$ . Por lo tanto, por convergencia dominada, $$ \big| \mathbb{E}[g(\overline{X}_n)] - \mathbb{E}[g(N)] \big| = \big| \mathbb{E}[g(\overline{X}_n)] - \mathbb{E}[g(\overline{N}_n)] \big| \leq \mathbb{E} |g(\overline{N}_n) - g(\overline{X}_n)| \to 0 . $$ Como ya se ha señalado, esto demuestra que $\overline{X}_n \to N(0,1)$ en la distribución.

0voto

Dom Veconi Puntos 38

Solución alternativa que no utiliza Borel-Cantelli:

Sea $Y_n$ esté distribuida en Cauchy con el parámetro $a = 1/n$ y $Z_n$ se distribuya uniformemente en $[-\sqrt 3, \sqrt 3]$ . Supongamos que todos $Y_n$ y $Z_n$ son independientes entre sí. Sea $X_n = Y_n + Z_n$ y $S^*_n = \frac 1{\sqrt n}(X_1 + \cdots + X_n)$ .

Por independencia tenemos que $$ \varphi_{S^*_n}(t) = \prod_{j=1}^n \left( \varphi_{Y_j}\left(\frac{t}{\sqrt n}\right) \varphi_{Z_j}\left(\frac{t}{\sqrt n}\right)\right) = \varphi_{Z_1}\left(\frac t{\sqrt n}\right)^n \prod_{j=1}^n \varphi_{Y_j}\left(\frac{t}{\sqrt n}\right). $$ Desde $\mathbb E\left[|Z_1|\right] < \infty$ y $\mathbb{Var}[Z_1] = 1$ se deduce del clásico Teorema Central del Límite y del Teorema de Continuidad de Lévy que $$ \varphi_{Z_1} \left(\frac{t}{\sqrt n}\right)^n = \varphi_{\frac{1}{\sqrt n}\left(Z_1 + \cdots + Z_n\right)}(t) \xrightarrow{n \to \infty} e^{-t^2/2}. $$ Mientras tanto, $Y_j$ tiene función característica $\varphi_{Y_j}(t) = e^{-|t|/j}$ así que..: $$ \prod_{j=1}^n \varphi_{Y_j} \left(\frac{t}{\sqrt n}\right) = \exp\left(-\frac{|t|}{\sqrt n}\sum_{j=1}^n \frac 1 j\right) \xrightarrow{n \to \infty} 1 $$ desde $\frac{1}{\sqrt n}\sum_{j=1}^n \frac 1 j \leq \frac 1{\sqrt n}(1+\log n) \xrightarrow{n \to \infty} 0$ . De ello se deduce que $\varphi_{S^*_n}(t) \to e^{-t^2/2}$ . Por el Teorema de Continuidad de Lévy, $S^*_n$ converge a $\mathcal N_{0,1}$ en la distribución. Desde $\mathbb E[|Y_n|] = \infty$ y $\mathbb E[|Z_n|] = \sqrt 3/2$ para cada $n$ es sencillo argumentar que $\mathbb E[|X_n|] = \infty$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X